Il
"senso" estetico dell'organizzazione nelle macchine,
ovvero:
Sul
"sentire"*
nelle macchine
a) Introduzione La physis
La presente ricognizione si propone
di evidenziare alcune caratteristiche della formazione e dello sviluppo
della cibernetica [1] e, in modo particolare,
della cosiddetta cibernetica dei sistemi mentali. Nel corso della trattazione
si segnaleranno, inoltre, alcune delle trame sottili che collegano la cibernetica
dei sistemi mentali con gli attuali sviluppi delle neurotecnologie. Verranno
passate in rassegna, infine, le più significative invenzioni che
hanno permesso di costruire delle macchine-automa coeve, per poter tracciare
una mappa più estesa del nuovo mondo dell'informazione.[2]
L'impostazione prospettata sottende
la physis come relazioni tra organismi intelligenti della materia (vivente
e non),[3] dall'organizzazione dei microrganismi
microscopici ai complessi sistemi delle macrostrutture delle galassie ed
oltre
(dal momento che si suppone che ci
sia un oltre, se si tiene conto dei nuovi calcoli astronomici).
In questo modo ogni ordine, dal filosofico,
al linguistico, allo psicologico, ecc., che ne deriva, é riscontrabile
non solo come organizzazione tecnologica della conoscenza, ma, specialmente,
come applicazione operativa di informazioni; viene studiato, in questo
modo, contemporaneamente, sia l'organismo nella sua struttura che il suo
comportamento nell'ambiente[4] sotto il segno
della complessità .
Si ipotizza cosi' che in ogni organizzazione
fisiologica della physis vi siano degli agenti intelligenti che sentono,
computano, strutturano, e rispondono agli stimoli e alle informazioni riconosciute
attraverso il sistema organico, o corpo. Importante pertanto é avere
presente come (1) dagli oltre 2000 anni della tradizione filosofica occidentale
siano comunque emerse teorie sul ragionamento e sull'apprendimento, insieme
al punto di vista che la mente sia costituita dal funzionamento di un sistema
fisico;[5] (2) da oltre 400 anni in matematica
sono state formulate teorie formali sulla logica, sulla probabilità
, sul calcolo e su come prendere decisioni;[6]
(3) da quasi 130 anni abbiamo individuato degli strumenti indispensabili
con cui investigare la mente umana e un linguaggio con cui esprimere le
varie teorie;[7] (4) più recente é
la evoluzione degli studi linguistici, perché non si prende come
punto di riferimento i Corsi di F. de Saussure dell'inizio novecento, ma
a partire da B. F. Skinner[8] e da N. Chomsky[9]
attraverso i quali si inizio' a comprendere l'ambiguità del
linguaggio e il suo essere formulato in modo non molto esplicito (cio'
comporta oggi che per comprendere il linguaggio si debba includere sia
l'argomento in oggetto che il contesto e non solo la mera struttura delle
frasi; e fu all'inizio del 1960, sebbene precursori fossero stati nell'analisi
letteraria i formalisti russi, che questo inizio' ad essere teorizzato
compiutamente);[10] (5) infine dalla informatica,
cioé quella scienza e tecnica dell'elaborazione delle informazioni
per mezzo di macchine automatiche e soprattutto elettroniche (calcolatori
e computer), é sorta quella intelligenza artificiale (AI, [Artificial
Intelligence] negli Stati Uniti o, tradotta, in molti testi in italiano
con IA [Intelligenza Artificiale]) delle macchine di cui qui si trascorrono
velocemente i primordi, giusto per individuare la genesi teoretica e la
struttura sia tecnica che operativa.[11]
D'altra parte é noto che l'evoluzione
dell'ambiente, nel corso di milioni di anni, ha prodotto dei cambiamenti
sulla Terra e con queste metamorfosi si é modificato sia il modo
di configurare che di organizzare le forme della vita. Si é assistito,
cosi', ad una trasformazione delle forme viventi che ha implicato modifiche
relazionali dal comportamento al modo di pensare alla funzione operativa,
nonché la stessa materia fisica, o organismo dei viventi, ha subito
notevoli mutamenti. Nel corso di questi ultimi decenni notevole importanza
ha assunto l'informazione e il modo in cui si trasmette e si organizza
nello stesso organismo vivente. Non a caso oggi si pensa che nel sistema
di informazione umana al di sopra di tutto vi sia il DNA con il suo traduttore
l'RNA che trasmette alle proteine le informazioni necessarie per organizzare,
ricevere, elaborare, manipolare e operare facendo agire o reagire tutti
gli organi fisiologici (compresa la mente) attraverso semplici o complesse
strutture organizzate di informazioni.
L'uomo é cosi' considerato
attualmente dai ricercatori come una macchina che funziona con elementi
organizzati attraverso processi biologici che implicano in parte reazioni
chimiche e in parte elettriche.[12]
Quest'uomo, pertanto, pur essendo
considerato una struttura autonomamente organizzata, é connesso
alle altre strutture; e, quindi, si puo' dedurre che i suoi sistemi applicativi
variano (sebbene i principi costitutivi possano essere gli stessi) non
solo per l'organizzazione, ma per i "contenuti" informativi che vi sono
coinvolti, specie per il variare dell'ambiente in cui il sistema biologico
umano (in quanto organizzazione biologica vivente) opera, per cui riconosce
forme che producono azione.
Non é un caso che in un periodo
di convergenza di tutte le scienze, la riflessione della maggior parte
del mondo scientifico passa oggi attraverso la fisica, fino a coinvolgere
le riflessioni di quelle scienze dal valore estetico-sociale ed etico-metafisico
della conoscenza. Sul versante scientifico un buon biologo, come base per
la biochimica, deve conoscere non solo la cosiddetta fisica elementare,
ma anche molta fisica moderna (meccanica quantistica, ecc.) e molta chimica.
Lo stesso fisico, d'altra parte, ha il suo ben da fare: c'é una
fisiologia della fisica e una biologia della fisica, compresi alcuni studi
delle neuroscienze; queste, infatti, fanno risalire la loro origine alle
scoperte di Galvani e Volta sulla elettricità fisiologica.
Nonostante che la biologia non interessi direttamente a questo fisico,
egli
ne é obbligato a conoscere almeno una parte, perché nel suo
lavoro ha a che fare con la chimica fisica e la biofisica. Oltre a cio'
c'é da ricordare la biochimica e, mentre sembra che una parte della
fisica si estende verso la biologia, d'altra parte alcuni aspetti matematici
della fisica iniziano a prendere una maggiore evidenza, specie nei calcolatori
elettronici. Non a caso un computer comprende elementi puramente fisici,
come i suoi componenti, e matematici,[13]
come la logica che si pone alla base della sua progettazione. Gli stampati
al silicio, infatti, che compongono la memoria di un computer, sono predisposizioni
di funzioni in architetture miniaturizzate di pura matematica. Senza dimenticarci
che tra le altre branche della fisica c'é lo sviluppo della ricerca
astrofisica, astromeccanica, ecc., cioé dell'ordine, della formazione-nascita
e della fine dei cosmi (o degli accidenti delle forme, specificherei, da
estetologo, o mi soffermerei sulle apparizioni di organizzazioni dell'universo
segnico, da semiologo).
Tutto cio' é partito dallo
sviluppo della conoscenza umana che si basava sul sapere e sulla esperienza
che abbiamo classificato nelle scienze col termine di «fisica»
e che riguarda soprattutto, nell'accezione «classica»: «l'estensione
senso-motorio dell'uomo». Un uomo, per il mondo fisico-naturale,
cosi' come viene configurato oggi, dispone di un completo e organizzato
apparato fisico, sia sotto forma di organi di senso atti a registrare e
a recepire il mondo esterno e sia sotto forma di complessi muscolari, che
azionati, tendono a modificarlo. L'uomo, inoltre, per la digestione, il
controllo e il mantenimento del metabolismo si avvale di un apparato chimico
molto elaborato, e questo é diventato in tempo recente, per gli
studi della biochimica, sempre più intellegibile. Ma sono stati
gli studi sull'apparato fisico sensoriale e muscolare, che noi meglio conosciamo,
che hanno indotto l'uomo a comprendere razionalmente quelle funzioni microrganiche
che rientrano, anche con gli studi sui tessuti e sulle cellule organiche,
nella grande famiglia della «fisica».
La ricerca scientifica, inoltre, con
il progredire di nuove tecnologie, ci ha dischiuso le porte di microcosmi,
di regni invisibili che partecipano alla nostra vita quotidiana, nonostante
che siano situati ancora al di là di una nostra completa esperienza
cosciente. (é bene ricordare che con gli studi sulla elettricità
ed il magnetismo non é più il mondo primario degli oggetti
fisici ad essere considerato come primario ma sono gli accidenti degli
eventi fisici che hanno luogo nello spazio circostante, che con Faraday
prima e poi con Maxwell, entrarono [1861-64] preponderantemente con la
nozione di campo. Il campo della scienza, fin dalla sua origine, era il
campo mentale, con risvolti matematici, fatto di forze complesse, colmo
di tentacoli che, con trazioni, spinte e movimenti si manifestava e muoveva
o spostava oggetti fisici del luogo ideale entro cui avvenivano gli effetti
elettromagnetici che lo scienziato osservava). Allo stesso tempo assistiamo
alla apertura di frontiere per possibili esperienze extraterrestri, mentre
a noi non resta che pensare di appartenere ad un mediocosmo.[14]
L'esperenzia della vita che gli umani compiono deve, pertanto, svolgersi
in questa sfera di mediocosmo; al di là del nostro periodo
di sonno che si estende in un altro ristretto e privato medicosmo che é
alimentato da sogni desideri fantasie o anche «realtà»,
ma che a sua volta puo' apparirci altrettanto vasto ed estraneo.
L'esistenza di tutti questi «luoghi»,
che ci permettono di organizzare relazioni tra forme e conoscenza e da
cui si ricavano informazioni per la nostra vita, hanno indotto l'uomo a
porre dei confini tra quello che sta fuori di noi e quanto sta dentro di
noi, anche se questi confini ci appaiono oggi sempre più labili.
Ogni parte di questo mediocosmo si propone, in questo nostro tempo, come
un mondo: ovvero come una physis minore senso-motoria attraverso cui si
tessono relazioni con gli altri corpi; e poi questo mediocosmo organizzato
diventa un sistema complesso attraverso cui il nostro corpo sente e fa
esperienze utili a svelare il processo di organizzazione e di funzionamento
non solo di questo ma anche dell'intero nostro organismo intelligente (si
consideri poi oltre alle comuni esperienze di identificazioni individuali,
come potrebbe essere il sogno, le fantasie, anche alla identificazione
con quegli organismi sociali, o con quelli universali).
Basta anche una semplice forma che
venga riconosciuta al di fuori di noi che ci possiamo porre l'interrogativo
sul mistero della nostra stessa origine (affrontando temi filosofici attuali
e non, come il mito, l'ontologia o la meontologia, l'essere o il divenire,
ecc.) o sulla necessità capitale di un rapporto pieno e completo
tra l'uomo e il mondo esterno, o tra l'uomo e i microcosmi, o tra l'uomo
e gli altri viventi, ecc, fino lanciarci in un rapporto ultimo, universale,
tra l'uomo e il sistema dell'intero cosmo (per non parlare di come oggi
nei paesi ad alto potenziale tecnologico si é modificata la configurazione
di Dio, sia nelle consolidate teologie e sia nelle neoteologie scientifiche
e non).
Sondare poi il mondo di una umanità
originaria porta necessariamente lo spostamento dei confini della nostra
esperienza, in un mediocosmo, in un mondo percettivo organizzato da altri
«sensi» che non sono quelli che comunemente definiamo fisici,
ma possono essere organizzati come un corpo che percepisce, indaga, organizza,
e agisce attraverso suoi sistemi quale potrebbe essere quello dell'intelletto,
o quello della ragione, o quello della psiche, o quello dell'"anima"¦
o quello spirituale. A questi corpi (naturali), che ci permettono di entrare
in mondi ed universi percettivi organizzati, sia fisicamente che mentalmente
che spiritualmente e da cui ricavavamo informazioni, strutture logiche
e comportamenti per risolvere i problemi della vita nel mediocosmo comunemente
detto bio-fisiologico-quotidiano , oggi dobbiamo aggiungere un nuovo corpo
che ci rivela un nuovo cosmo relazionale: quello tecnologico.[15]
Rinveniamo nelle nostre letture, in
questi ultimi tempi, frequentemente, la convinzione che il nostro comportamento
ordinario viene sempre più condizionato dagli oggetti tecnici che
gli uomini hanno inventato, oltre che dalla comprensione razionale dei
nuovi rapporti che si sono instaurati tra le cose. Non a caso la maggioranza
di coloro che vivono nelle società a forte sviluppo tecnologico
crede che queste esigenze e relazioni siano altre da quelle di cui ci informava
una visione ingenua o «primitiva» del mondo. Nonostante che
cio' sia innegabile, c'é da sottolineare che in tutte le organizzazioni
umane agisca come stimolo il desiderio di un, sia pur relativo, affrancamento
dalla schiavitù del lavoro. Questo affrancamento spinge l'uomo verso
lo sviluppo e la invenzione di nuove macchine, oggi sempre più complesse,
che vanno dal biologico al tecnologico. Non a caso spesso troviamo macchine
che "simulano" o operano in modo sempre più somigliante agli umani,
fino a sostituire le funzioni dei viventi.
Le nuove macchine riorganizzano spontaneamente
la natura (con le sue forme) rinnovandola nella sua naturalità .
Le macchine, pertanto, possiedono oggi una «forza formatrice»
intrinseca
con cui riorganizzano il mondo naturale. Già Kant aveva rilevato
cio', quando parlando della natura, che produce oggetti organizzati, affermo':
«Un essere organizzato non é dunque una semplice macchina,
che non ha altro che la forza motrice: possiede una forza formatrice, tale
che la comunica alle materie che non l'hanno (le organizza): una forza
formatrice, che si propaga, e che non puo' essere spiegata con la sola
facoltà del movimento (il meccanismo)».[16]
Cio' che dagli uomini viene più
imitato e reso operativo nella natura é oggi l'intelligenza, quel
rapporto corpo-cervello-mente che produce azioni formatrici nel mondo fisico.
Charles Lumsden ed Edward O. Wilson
agli inizi del 1980, proprio ponendosi il rapporto scienza e interpretazione
delle arti, rinvennero nelle loro ricerche che l'interpretazione delle
dimensioni multiple tra cui la storia, la biografia, la linguistica e il
giudizio estetico avevano origine da riferimenti a processi logico-materiali
della mente umana. Da questa ottica auspicarono una collaborazione tra
scienziati e studiosi di discipline umanistiche alfine di trovare un procedere
comune; in seguito alcuni studiosi del mondo dell'arte per sottolineare
questi intenti comuni coniarono il termine di biopoetica o bioestetica.
A tal proposito Wilson afferma che
«Capire l'origine dell'innovazione nel campo artistico porterà
a un modo completamente diverso di interpretare le creazioni. Le scienze
naturali hanno cominciato a farsi un'idea della mente, inclusi certi elementi
del processo creativo. Sebbene si trovino ancora a grande distanza dell'obiettivo
ultimo, alla fine non potranno che rafforzare l'interpretazione delle arti.
Charles Lumsden e io siamo giunti a questa conclusione all'inizio degli
anni Ottanta, mentre stavamo elaborando la teoria della coevoluzione gene-cultura¦
Una simile posizione é stata adottata, a partire da presupposti
diversi, da una cerchia ristretta di artisti e teorici dell'arte tra cui
i più conosciuti sono Joseph Carroll, Brett Cooke, Ellen Dissanayake,
Walter Koch, Rovert Storey e Frederick Turner.[17]
Alcuni di questi studiosi hanno etichettato un tale approccio con il termine
biopoetica o bioestetica».[18]
A dieci anni di distanza il percorso
auspicato da uno studioso di estetica italiana sulle «macchine senzienti»,
come «estraneazione di un sentire» in un sistema (aggiungo
io) che é «già sentito» attraverso cui
la dimensione estetica inizia ad acquisire una vera effettualità
e potere senza far ricorso alla metafisica, alla ontologia o alla fenomenologia
ma attraverso la eterofenomenologia la biologia la astrofisica e le scienze
cibertetiche-cognitive.[19]
«Dopo le macchine agenti e le
macchine pensanti, l'immaginazione scientifica esplora oggi l'ipotesi di
una macchina senziente. L'ingresso del problema della sensibilità
e dell'affettività nelle scienze cognitive é una conseguenza
del grande evento di cui siamo testimoni di questo fine millennio, l'estraneazione
del sentire in un già sentito che non appartiene più
all'uomo. Gli interrogativi sul che cosa si prova ad essere un pipistrello
o ad essere un sasso o una qualsiasi altra cosa, non sono bizzarrie fantafilosofiche
o fantascientifiche, ma si collocano in un orizzonte storico-culturale
in cui da un lato é sottratta all'uomo la facoltà di
sentire, dall'altro l'intera dimensione estetica acquista effettualità
e potere. In questa nuova prospettiva diventa oggetto di riflessione la
pipistrellità , la sassosità e più in generale
l'esseribilità , cioé una generale suscettibilità
di sentire indipendente del sentire in prima persona. La domanda su chi
sente é definitivamente sostituita dalla domanda su chi amministra
e gestisce la circolazione del già sentito».[20]
In questa ottica estetologica dei sistemi cognitivi del «già
sentito» (o feedback), su cui sono state costruite le prime macchine
senzienti, va sottolineato anche lo sviluppo tecnologico non solo su come
(e attraverso quali utensili) sono state costruite le macchine, ma anche
su come circolano in esse le informazioni e attraverso quali sistemi si
organizzano o si possono riprodurre come nella «estetica della comunicazione».
b) Un mito tecnologico e le origini
della cibernetica L'uomo fin dall'antichità é stato
affascinato dagli automi. E' ormai risaputo che nel mondo letterario-mitologioco
di Omero si é affermato per la prima volta l'idea di automa.[21]
Popper ed Eccles ne hanno esplorato le origini dandone un innovativo contributo.
Efesto, il dio del fuoco della mitologia
greca, ( o Vulcano per i romani) era lui che costruiva cose strabilianti
per gli dei. La sua nascita, diversa da quella narrata nell'Iliade di Omero,
ci viene raccontata da Esiodo nella Teogonia :«Ed Era adiratasi gareggiando
col marito, genero' senzâ essersi mescolata in amore, l'inclito Efesto,
di arti ornato da tutti gli Urani».[22]
Efesto, sciancato, per l'ira di Zeus[23] ma
«ornato di arti da tutti gli dei» é l'inventore di opere
d'ingegno mirabili. Tra queste si annovera Pandora col suo vaso,[24]
; anche se alla costruzione della donna Pandora, portatrice di mali all'umanità
, si dice che vi avessero partecipato tutti gli Dei. Ma cio' che é
innegabile é il fatto che Efesto fosse il costruttore di oggetti
magici come il già citato vaso di Pandora, i tavoli a tre
gambe, i cosiddetti tripodi che andavano alla riunione degli dei e vi ritornavano
da soli, e poi dalle saette di Zeus fino alle donne automa, che erano fanciulle
d'oro, una specie di ragazze tutto fare, che si muovevano parlavano e ragionavano
come esseri viventi.
Oggi l'Efesto arcaio potrebbe essere
paragonato, con le dovute distanze, da una parte ad un ingegnere pratico
di robotica o di AI e dall'altra ad un biologo dedito ad esperimenti di
ingegneria genetica o al pari di un fanerologo studioso della trasmissione
in laboratorio delle informazioni genetiche ai neuroni di uomini e animali
attraverso la luce; oramai, potremmo considerare questi uomini di scienza
attuali come degli Efesti della trasmissione delle informazioni.
Efesto comunque é da ritenersi,
per il suo appartenere alla mitologia dall'antichità , come il primo
costruttore di oggetti tecnologici. I biologi attuali combinano i geni
dell'informazione nei propri laboratori e indagano sull'anello originario
della vita al pari di coloro che costruiscono le intelligenze artificiali
nelle macchine e, pertanto, tutti questi possono essere considerati come
degni continuatori dell'opera di Colui che era il costruttore degli oggetti
magici in Grecia e a Roma. Se il superuomo genetico[25]
che si sta costruendo in laboratorio a questo punto ci spaventa, poco importa
perché le Parche, secondo Quine, per coloro che lo desiderano, possono
imperterrite continuare a tessere il filo della nostra vita.[26]
***
Nel suo processo evolutivo e attraverso
una nuova concezione della epistemologia[27]
la scienza ha dato impulso ed é stata essa stessa coinvolta nella
evoluzione delle altre discipline. La storia della scienza é passata
dai tempi mitici fino a giungere a quelli naturali[28]
e recentemente é coinvolta nelle descrizioni dei nuovi campi aperti
dal tecnologico e dal biologico-artificiale attraverso le nuove ipotesi,
con l'indagine sempre praticata, sulla nascita e sulla fine della vita
secondo le attuali «protesi» di osservazione che rivelano mondi
subatomici (ad es. attraverso il microscopio elettronico) e galassie astrofisiche
(ad es. attraverso il cannocchiale o telescopio elettronico).
In questa nuova riorganizzazione paradigmatica
della scienza ha dato un fondamentale contributo la cibernetica[29]
con le scoperte tecnologiche e la riflessione su di esse.
Wiener, infatti, pone a sostegno teorico
della cibernetica un elemento tecnico-pratico, derivante dalla organizzazione
e dal funzionamento di un sistema.
Ogni sistema cognitivo in base alla
ricorsività [feedback] si pone anche come sistema operativo.
(Il concetto di feedback é ormai entrato nel linguaggio delle neoscienze
psicologiche e degli attuali studi sul cervello e sulla robotica).
L'attività fenomenologica
legata ad una tecnologia o sistema di conoscenza operativa é stata,
invece, in filosofia della scienza, espressa dai cibernetici della seconda
generazione con il termine di eterofenomenologia.
La cibernetica, cosi', oltre a trovare
i fondamenti di una recente rivoluzione scientifica si presenta alla riflessione
epistemologica con una nuova caratteristica paradossale: in essa la prassi
tecnica acquista addirittura un significato di ordine teorico. Viene cosi'
reso per la prima volta effettivo il rapporto tra tecne e logos.
Questo evento ebbe una portata straordinaria
sia per quanto riguarda il piano scientifico che filosofico, culturale
e sociale.
Dal canto loro gli scienziati dapprima
iniziarono a produrre energia, poi, attraverso dei canali, a farla circolare
in modo organizzata in flussi di energia. Essi si adoperarono, infatti,
a realizzare dapprima una installazione a più funzioni assemblando
flussi diversi e diverse energie in una stessa macchina; poi studiarono
come attraverso dei sistemi si poteva far lavorare questa macchina al posto
degli uomini; e, in seguito, progettarono delle macchine che, manipolando
informazioni, potevano interagire con l'ambiente attraverso l'energia elettrica.
Controllare e trasformare in informazioni l'energia e contemporaneamente
inventare nuove protesi meccaniche più funzionali é il successivo
passo di questa evoluzione delle macchine.
La scoperta tecnologica che diede
il primo e maggiore impulso alla evoluzione delle macchine con più
funzioni elettriche fu quella del tubo elettronico.
Gli attuali studi sul cervello hanno
evidenziato proprio la canalizzazione e il passaggio di un potenziale d'azione
in quel fenomeno chimico-elettrico che avviene nel cervello umano con il
processo di depolarizzazione. Questo ha molte analogie con le aperture
o chiusure di canali nel tubo elettronico. La differenza tra i due é
sostanziale anche nel sistema di propagazione della informazione. In questo
processo di depolarizzazione dell'organismo umano, più complesso,
sono coinvolti dei neurotrasmettitori chimici, dei recettori e lo spazio
della sinapsi dove avviene il transito e il passaggio di elettricità
.[30]
Il tubo elettronico funge invece da
«semplice» amplificatore di energia e con esso si puo' controllare
e comandare il flusso di energia in base alla polarizzazione degli elettrodi.
Successivamente quando furono creati elaboratori elettronici che potevano
realizzare modelli complessi, mediante elaboratori elettronici sempre più
sofisticati, la cibernetica amplio' la propria incidenza di disciplina
teorica fino a diventare oggi una indiscussa disciplina del sapere.
In una prima fase la cibernetica,
in base a semplici schemi logico-matematici, aveva messo in rilievo la
grande incidenza della tecnica sulla teoria. Man mano che le società
industriali si sono sviluppate non hanno potuto fare a meno dell'apporto
della conoscenza organizzata ciberneticamente, ovvero attraverso i sistemi
operativi. Basta ricordare che il sistema per rendere operative le conoscenze
trova uno dei fondamenti sociali da tutti riconosciuti nello sviluppo e
nella economia di un paese. Fu senz'altro per questa ragione che il progresso
tecnologico e industriale, appena apparve questa scienza, adotto' la logica
del neo-razionalismo cibernetico fondato sull'organizzazione sistematica
dei dati di informazione, poi sulle prestazioni ultrarapide dei calcolatori
o delle macchine ecc.; insomma grazie a questa scienza furono velocizzati
i rapporti di scambio sia di informazioni che delle merci.
Mediante la riflessione cibernetica
si é giunti a dimostrare come la tecnologia ha modificato il metodo
moderno della scienza positiva.
La scienza cibernetica fonda l'indagine
e la sua verifica sui propri strumenti di osservazione, o ad esempio sulle
operazioni di feedback [o retroazione] dove é fondamentale che l'osservatore
sia inserito all'interno della struttura del sistema operativo (eterofenomenologia).
Il sistema operativo diviene, per questa scienza, esso stesso informazione.
Ecco brevemente i principi su cui sono state costruite poi le varie teorie.
L'informazione va intesa come un qualsiasi
insieme di dati o di fatti organizzati in messaggio.[31]
Essa si presenta come una organizzazione codificata di una parte dell'universo
suscettibile di dirigere delle azioni. L'informazione é alla base
della teoria dell'informazione, questa si occupa della trasmissione delle
informazioni. L'individuo stesso é visto come un organismo biologico
che contiene informazioni.[32] L'informazione
nella rete elettrica di una tecnologia viene tradotta in unità
di bit.[33] Lo schema di una rete elettrica
di informazione é costituito nel modo seguente: sorgente d'informazione
ï¬ codificatore ï¬ canale ï¬ decodificatore
ï¬ ricevitore.[34]
L'uomo, che anch'esso é dotato
biologicamente, dalla propria evoluzione naturale, di un sistema chimico-elettrico,
viene oggi osservato e analizzato nelle sue componenti in base alle stesse
leggi della macchina. Anzi le macchine tentano di assomigliare e di perfezionarsi
in base alle scoperte sulla complessa struttura umana.
La scienza positiva attuale[35]
cosi', in breve, fonde questi due elementi costituenti i propri principi
d'indagine affermando che la cibernetica é la tecno-logia stessa.
Il rapporto innestato dalla cibernetica
tra tecne e logos con l'energetica operativa , in Italia, fu interpretato
da Linguiti come il tentativo per rifondare e riunificare le teorie scientifiche.[36]
La cibernetica oggi fonda il suo sviluppo
sul relazionare organizzare e rendere operative in modo veloce il maggior
numero di informazioni.
L'apprendimento di informazioni di
questo tipo porta direttamente a come si utilizzano i nuovi media: essi
costruiscono un sapere non solo epistemico nuovo, ma anche pratico. Non
a caso, infatti, ogni interazione pensata tra uomo e macchina (o uomo e
mondo esterno) contempla anche una componente attiva, cioé un «saper
agire» accanto al «saper essere» e al «saper fare».[37]
Da questa ottica i nuovi media non
solo riorganizzano il mondo ma lo fanno sentire e vedere attraverso l'applicazione
funzionale dei sistemi operativi delle esperienze.
Analizzando queste affermazioni secondo
le direttrici di Wiener e della cibernetica si tenta di ricercare analogie
tra il modo di operare da una parte delle classi sempre più ristrette
degli esseri viventi, quelle degli animali e degli uomini e, dall'altra
parte, della classe delle macchine. Wiener all'origine di questa scienza
cosi' sentenziava: «E' mia convizione che il comportamento degli
individui viventi é esattamente parallelo al comportamento delle
più recenti macchine per le comunicazioni».[38]
Questa affermazione trova spiegazione nella remota convinzione di Wiener,
Bigelow e Rosenblueth, riguardo alle analogie che ci sono nello studio
di questi due gruppi: gli organismi viventi e le macchine. «I metodi
di studio per i due gruppi sono oggi simili. Se saranno sempre gli stessi
oppure no dipenderà dalla presenza di una o più caratteristiche
qualitativamente distinte e tipiche di un gruppo e non dell'altro. Queste
differenze qualitative non sono state trovate. Le grandi classi di comportamento
sono le stesse nelle macchine e negli organismi viventi».[39]
c) Comunicazione tra macchina e macchina
Le macchine, nella forma degli attuali
elaboratori di informazioni elettroniche e dei sistemi artificiali basati
su di esse, posseggono una caratteristica che le differenzia da tutti gli
altri strumenti che l'uomo ha costruito finora. Quelle, infatti, sembrano
aver infranto la barriera che da sempre separava l'uomo dai suoi strumenti,
perché sono in grado di eseguire compiti che finora erano stati
di dominio esclusivo dell'uomo.
Tra i primi teorici impegnati nella
cibernetica vi é stato anche qualche ingegnere o costruttore di
macchine. Bisogna comprendere come le nuove generazioni di macchine hanno
cambiato sia l'uomo che il suo rapporto con gli strumenti tecnologici,
e come oggi le novissime e le future generazioni di macchine lo potranno
modificare in modo radicale.
I primi cibernetici quando affermano
che «ogni utensile ha una propria genealogia e che esso discende
dagli utensili con i quali é stato fabbricato»[40]
ci informano anche su tutta una filosofia e organizzazione della vita connessa
all'uso pratico delle cose; e solo attraverso «il concorso di una
serie di macchine che sono state a loro volta fabbricate con altre macchine»[41]
risaliamo ad una genealogia degli utensili e delle macchine.[42]
Nonostante che la nostra Era é
denominata «l'Epoca della macchina» pochi sono coloro che hanno
sufficienti nozioni sulla sua origine o una chiara visione dello sviluppo
configurato attraverso la tecnica moderna. La storia sociale fa risalire
l'origine della prima importante trasformazione industriale nell'invenzione
di Watt della macchina a vapore; mentre gli studi di economia mettono in
rilievo come la evoluzione importante é da ritenersi l'invenzione
delle machine automatiche, che danno impulso ad un altro tipo di lavorazione
dei prodotti e di distribuzione del lavoro.
Nell'Europa Occidentale la macchina
ha avuto uno sviluppo graduale per almeno sette secoli, prima di giungere
ai radicali cambiamenti che hanno caratterizzato la svolta della «Rivoluzione
industriale». Dietro le grandi invenzioni tecnicologiche degli ultimi
duecento anni circa non vi era solo una tecnica produttiva che cambiava
ma un intero modo di pensare e di essere. Questo processo industriale si
affermo' soltanto quando si vide sorgere nell'uomo un nuovo orientamento
culturale che coinvolse l'intera esistenza e credenze dell'uomo, ponendo
nuovi obiettivi, consuetudini, scopi e producendo nuove idee e modi di
sentire ed organizzare la vita.
In questo modo si puo' rilevare che
ruolo hanno recitato l'organizzazione tecnica e le scoperte scientifiche
a essa connessa nello sviluppo della moderna civiltà ; e come poi
queste vengono strettamente legate ad un nuovo assetto delle strutture
ideologiche e della organizzazione sociale. Il mondo del pensiero é
legato, da questa prospettiva, agli sviluppi tecnologici. Anzi c'é
la convinzione che la modificazione della tecnica produce un nuovo modo
di pensare e di organizzare il mondo. Le scoperte scientifiche e i materiali
utilizzati servono per sfatare vecchie credenze e riorganizzare sotto un
nuovo paradigma l'intera esistenza umana. La filosofia innovativa diventa
espressione di questa trasformazione in atto che tiene conto del nuovo
pardigma di credenze umane. Cosi' é stato anche per il nuovo mondo
delle macchine. La ricerca ha avuto il suo esordio agli inizi del secolo
scorso e ha trovato la sua formulazione nel 1934 con Mumford: «Vale
a dire che il Weltbild meccanico iniziatosi nel XVII secolo deve ora essere
sostituito da una filosofia e da un metodo che rendano piena giustizia
alla natura umana, nella sua completezza. Per salvare la scienza e la tecnica,
entrambi preziosi strumenti del progresso, dobbiamo prima salvare l'uomo,
divenuto vittima dei suoi strumenti che egli stesso ha creato e sopravvalutato.
La tecnica non puo' trovare risposta ai suoi dilemmi risultati da una evoluzione
tecnica unilaterale. L'ipertrofico sviluppo di questo settore puo' solo
aumentare la disparità che ora esiste fra potere fisico e
scopi sociali, fra metodo scientifico e disciplina morale, fra la nostra
capacità di distruggere e la nostra capacità
di creare».[43]
Per comprendere come si é giunti
alla produzione delle macchine che sentono bisogna ripercorrere gli ultimi
sviluppi tecnici delle invenzioni.
Di solito una nuova macchina é
il prodotto di un assemblaggio di macchine già di per sé
complesse. Dalla seconda metà del 1700 la macchina é
stata strettamente legata ed identificata con lo sviluppo del mondo economico.
Si ricorda a questo punto l'impulso
innovativo dato dall'arte della navigazione con il cronometro nautico e
con le tavole di navigazione,[44] e come questi
strumenti siano stati ritenuti un punto di svolta per una nuova rivoluzione
in campo industriale.
L'invenzione della macchina a vapore
trovo' altre applicazioni, oltre all'essere identificata ai mezzi di locomozione
(si pensi non solo al piroscafo e alla locomotiva a vapore ma anche alla
primitiva macchina Newcomen per pompare acqua dalle miniere).
L'industria tessile agli inizi del
XIX secolo era quasi tutta meccanizzata, la filatura meccanica forniva
orditi ai telai meccanici. Le prime macchine tessili erano azionate a mano,
sebbene ben presto ad esse furono applicate l'energia termica e idraulica.
Successivamente con l'introduzione della macchina a vapore in queste fabbriche
si tento' di collegare ad una unica macchina i vari fusi e telai meccanizzati.
Dapprima i soli mezzi per la trasmissione di energia erano delle leve o
congegni meccanici; poi l'energia prodotta dal vapore inizio' ad essere
trasmessa ai telai per mezzo di alberi di trasmissione sospesi alle travi
e di pulegge collegate alle singole macchine per mezzo di cinghie.
Il primo motore elettrico fu impiegato
nell'industria verso il 1875 e fu considerato subito un possibile strumento
per le moderne tecniche industriali. Altra importante scoperta di quel
periodo fu il tubo elettronico che serviva a regolare un grande sistema
di energia attraverso un gran numero di processi separati. Successivamente
questa invenzione di Edison fu usata per controllare e dirigere con piccole
tensioni notevoli correnti. Da qui, secondo Wiener, inizio' a costruirsi
la moderna industria meccanizzata. Dei piccoli motori elettrici potevano
controllare, attraverso l'applicazione della teoria dei circuiti, una energia
di grandi dimensioni. Questo fu il motivo per cui furono sostituiti gli
ingegnosi accorgimenti meccanici di vecchio tipo nelle industrie con i
nuovi strumenti offerti dalla teoria dei circuiti elettrici. Piccoli motori
elettrici potevano trasmettere e suddivididere l'energia ottenuta. Questi
motori permisero contemporaneamente la trasmissione di diverse quantità
di energia collegate ad una stessa macchina produttrice di energia, attraverso
canali multipli di tensioni.
L'anno 1876 fu importante anche per
l'invenzione del telefono.[45] A questa invenzione
del mondo delle comunicazioni fu applicato per la prima volta il tubo elettronico.
Solo successivamente, ci ricorda sempre Wiener, il tubo elettronico fu
usato dagli ingegneri elettrotecnici per sostituire le componenti dei vecchi
circuiti telefonici a grande distanza e quelle della telegrafia senza fili,
nel radiotelefono, nel radiotelegrafo, nonché nella radio. Il tubo
elettronico oltre a regolare la pianificazione meccanica della industria
fu utilizzato, cosi', anche nell'industria delle comunicazioni. L'energia
elettrica in questo modo fu applicata sia al mondo della produzione industriale,
sotto forma di energia meccanica, sia come circuiti per la trasmissione
di informazioni, attraverso l'industria della comunicazione vera e propria
(anche se l'industria della comunicazione non veniva all'origine per niente
affatto considerata come tale).
Il tubo elettronico all'inizio pero'
trovo' rare applicazioni nella industria, insieme alla invenzione gemella,
la cellula fotoelettrica.
La seconda guerra mondiale fu un evento
importante per studiare l'automazione nelle macchine. Essa indusse ad applicare
con successo alcuni automatismi alle macchine belliche.
I cannoni antiaerei dovevano muoversi
con agilità per seguire puntare e sparare contro gli aerei
nemici ed avere una maggiore probabilità di colpire il bersaglio.
Si studio' allora come un uomo potesse dare dei comandi precisi alle armi
da fuoco ed ottenere un puntamento veloce. Si penso', cosi', di fornire
la macchina bellica di una centrale di tiro e previsione.[46]
In tal modo il comando veniva dato ad una macchina anziché ad una
persona con segnalatori che ne prevedevano il comportamento. L'organizzazione
del meccanismo innescato dalla macchina come comportamento venne chiamato
dispositivo di retroazione.
Il metodo di regolazione era stato
analizzato in matematica da Clerk Maxwell nel 1868, dove la retroazione
viene impiegata per regolare la velocità di una macchina,
allora specie nelle macchine a vapore di Watt. Il principio di retroazione
era già conosciuto come la forma computazionale della macchina
e dispositivo di calcolo.
Nel periodo pre-bellico della seconda
guerra mondiale si era tentato con successo di far funzionare il tubo elettronico
in automatismo con la macchina, senza l'intervento di un agente umano.
In base a calcoli affidati ad una macchina calcolatrice che si basava su
amplificatori meccanici Vannevar Bush[47]
riusci' a far funzionare una macchina calcolatrice che Charles Babbage[48]
aveva soltanto intuito.
Gli amplificatori di carattere meccanico
vennero ben presto sostituiti da conduttori elettrici regolati da un dispositivo
a tubo elettronico. Queste sono le prime macchine calcolatrici sul cui
sistema di calcolo si fondano sia quelle analogiche, cioé che misurano
entità fisiche, che quelle digitali, cioé le macchine
numeriche che eseguono calcoli e operazioni di carattere aritmetico.
In quel periodo era inportante organizzare
automaticamente le varie parti delle macchine finalizzate alla produzione
di certi obbiettivi, siano essi dispositivi di calcoli che per produzioni
di forme industriali.
Le diverse parti della macchina, infatti,
comunicano tra di loro attivando il proprio comportamento in base alle
operazioni volute quando si immettono delle richieste di un comportamento
attraverso l'attivazione di dispositivi. I primi automatismi meccanici
delle macchine sono stati i primi dispositivi, che, poi, con l'elettricità
e l'elettronica costituiscono i modelli-tipo per la costruzione di tutti
i primi apparecchi di comando.
Con l'applicazione di questi, ormai
primitivi, dispositivi elettrici le macchine e le fabbriche iniziano ad
essere organizzate in modo sempre più automatico. Lo stesso corpo
umano e le sue malattie neurologiche[49] e
fisiologiche vengono oggi studiate in base a questi principi dell'organizzazione
del tubo elettronico e del principio di retroazione. Wiener cosi' si esprime:
«Cio' che la retroazione e il tubo elettronico hanno reso possibile,
non sono progetti isolati di singoli dispositivi automatici, ma un sistema
generale per la costruzione di congegni automatici dei tipi più
diversi. In cio' essi sono stati favoriti dalla nostra nuova trattazione
del concetto di comunicazione, che prende piena coscienza della possibilità
di comunicazione tra macchina e macchina. E' questa favorevole congiuntura
che rende oggi possibile la nuova Era degli automatismi».[50]
d) Il sentire delle macchine
Le macchine moderne si differenziano
vistosamente da quelle del passato in base a nuovi componenti, ai nuovi
materiali, e al modo di assemblarli. Le macchine del passato erano costruite
mettendo assieme semplici ingranaggi ad orologeria, le nuove macchine,
invece, oltre ad avere meccanismi funzionanti con l'impulso elettrico e
ad avere strutture retroattive, sono provviste di sensori.
Le cellule fotoelettriche vengono
spesso considerate come i primi rudimentali sensori delle macchine. Non
a caso l'invenzione gemella del tubo elettronico é ritenuta proprio
quella della cellula fotoelettrica. Entrambe queste invenzioni hanno fornito
un nuovo corpo e una varietà di funzioni (per non dire «sensibilità
») alla macchina.
Le cellule fotoelettriche sono state
usate la prima volta per verificare alcuni prodotti nell'industria, ad
esempio esse venivano utilizzate per controllare la colorazione delle etichette
di un prodotto o verificavano lo spessore di un foglio di carta.
Quando affermiamo che le macchine
moderne sono fornite di organi sensori, diciamo che esse sono fornite di
una struttura organizzativa che riceve e riconosce flussi di corrente elettrica
(o messaggi) attraverso cui si innescano dei dispositivi o degli
ingranaggi operativi. Cio' permette alla macchina di operare automaticamente
attraverso dispositivi nel mondo esterno ed essere considerata al pari
di qualsiasi altro sistema operativo.
Non a caso queste macchine sono state
considerate le prime rudimentali macchine con meccanismi eterofenomenologici.
Esse all'inizio erano fornite di una
semplice cellula fotoelettrica, che modificava il suo comportamento non
appena entrava in contatto con la luce. Ed é per questa ragione
che si dice che la cellula fotoelettrica distingue il buio dalla luce e,
se legata ad una centralina di calcolo, ne calcola la intensità
.
Una tensione alta di corrente puo'
essere misurata e riconosciuta nell'analisi di una conduttività
o meno di un filo elettrico esposto alla corrente, la sua temperatura é
misurata in base alla termocoppia.
Tutti gli strumenti che rivelano i
passaggi o la quantità di corrente che li attraversa possono
essere usati come organi sensori.
Una macchina semplice che agisce sul
mondo esterno in base a messaggi é ad esempio il cancello automatico.
Esso agisce sul mondo esterno in base ai messaggi.
Si invia un raggio di luce verso un
sensore di un dispositivo fotoelettrico, il quale se riconosciuto, cioé
se il sensore 'si impressiona' per l'azione di una stessa intensità
luminosa, fa scattare l'apparecchio di manovra che agisce sulla porta e
la apre. L'azione comporta un immissione (o segnale) di dati finalizzato
ad un certo effetto (o emissione). Questo semplicie meccanismo puo' essere
usato per attivare qualsiasi dispositivo che desideriamo; importante é
aver preregistrato, ovviamente, nella memoria della macchina, l'effetto
o emissione e l'intensità del segnale attraverso cui si apre
il dispositivo.
Ogni dispositivo attivato ha una memoria
preorganizzata in base alla quale si ottengono delle risposte. La macchina
diventa operativa in base alla informazione che le si dà : ovvero
in base alla attivazione di un dispositivo che apre un canale di tensione
e aziona la risposta desiderata.
Il sensore nella macchina é
cio' che porta a buon fine il comando che attiva una risposta predeterminata
e precedentemente memorizzata. Il comportamento della macchina é
una condotta già calcolata ed é conosciuta come feedback
[retroazione] e implica che la parte sensoria, attivando la parte motoria,
svolga una funzione di rilevazione o segnalazione di funzioni comportamentali
della macchina.
All'origine le applicazioni dei sensori
nell'industria non erano ancora associate alle funzioni della comunicazione
elettromeccanica. Negli Stati Uniti, verso gli anni '50, la catena di montaggio
fornisce l'esempio di una sensibilità ricettiva della macchina:
il riconoscimento, anche se dapprima é molto semplice, é
efficiente.
Il sensore trovo' il suo sviluppo
non appena fu collegato ai calcolatori automatici.
I segnali elettrici esterni percepiti
attraverso le fotoelettriche avevano bisogno di un calcolatore automatico
(computer) ad alta velocità , che rivelasse la posizione in base
ad una traduzione della posizione in un modello di cifre consecutive.
Fu cosi' che il sentire esterno della
macchina appena fu collegato ad un sistema di riconoscimento di retroazione
divento' autonomo. Basto' semplicemente connettere questa ricezione ad
un calcolatore automatico che memorizzava i sistemi di cifre consecutive.
I calcoli di riconoscimento, regolati
da un sistema centrale di comando che é¨ un sistema logico
e matematico , venivano tradotti in azioni dalle operazioni di retroazione.
Sappiamo che queste operazioni possono
essere semplici o complesse.
Le macchine elettriche connesse al
sistema di calcolo diventano, in questo modo, macchine che ricevono e producono
comunicazione.
La scoperta del funzionamento e del
controllo della meccanica nonché i processi logici e di calcolo
applicati ai circuiti elettrici come strutture comunicative segna la vera
evoluzione della macchina. Le macchine, nella catena industriale, essendo
fornite di «organi di senso» e di una centralina elettrica
di calcolo potevano già funzionare senza l'intervento umano.
Dagli anni '50 si é potuto dotare le fabbriche di automatismi in
cui l'uomo é diventato solo un controllore.
Nel futuro prossimo si puo' prevedere
che l'uomo potrà rinunciare anche a questa funzione di controllo
in quanto altre macchine con sistemi operativi /più intelligenti/
controlleranno queste macchine.
Le macchine che sentono e che pensano
autonomamente erano già esperienza che aveva una sua realtà
, fin dagli anni '50 del XX secolo. Si aspettava solo che fossero inventati
dei materiali meno costosi con cui costruire circuiti meno complessi e
più piccoli; tutto il resto era già un problema risolto
dai cibernetici. Cio' che si ricercava erano sistemi computazionali più
grandi e più veloci che avessero permesso una memorizzazione più
ampia. Questi dovevano servire non solo per sfruttare al meglio la sensibilità
degli organi sensori, ma anche per riuscire poi a manovrare dei servo-meccanismi
(ad esempio braccia meccaniche, motori che regolano i movimenti ecc.) con
una maggiore praticità (specie con la scoperta di materiali
più flessibili e resistenti) in modo che la macchina potesse interagire
meglio col mondo esterno. Da allora la macchina viene progettata e costruita
adeguandola agli stessi criteri dell'organismo vivente.[51]
Wiener cosi' nel 1950 descrive
l'organizzazione e il funzionamento di un sistema sensorio e di computazione
elettro-meccanico: «Naturalmente, noi presupponiamo che gli strumenti
che rispetto al sistema agiscono come organi sensori, registrino non soltanto
lo stato iniziale del lavoro, ma anche il risultato delle operazioni compiute
nel corso di tutti i processi precedenti. In tal modo la macchina puo'
eseguire operazioni di retroazione, sia quelle di tipo più semplice,
oggi interamente comprese, sia quelle che implicano processi più
complessi di selezione, regolate dalla centrale di comando come sistema
logico o matematico. In altri termini, il sitema generale corrisponderà
all'animale completo con organi sensori, esecutori e propriocettori, e
non come nella calcolatrice ultrarapida, a un cervello isolato che dipenda
per le esperienze e per il suo funzionamento dal nostro intervento».[52]
Lo studio delle macchine ha dato nuovo
impulso alla ricerca neurofisiologica, cinestesica e ha moltiplicato gli
studi computazionali applicati alla robotica. Da allora si puo' dire che
si sono costruite in una rapida successione molte macchine che sentono
facendo riferimento al loro sistema ricorsivo. A partire da quelle primitive
macchine se ne sono costruite altre sempre più complesse. Macchine
sempre più complesse, infatti, occupano i nostri ambienti o le nostre
abitazioni e, da semplici elettrodomestici a due o tre sistemi di riconoscimento,
ora iniziano ad avere intelligenze vere e proprie, con microcomputer che
permettono una sensibilità macchinica di gran lunga superiore
a quelle prime macchine elettriche. Le nuove macchine oggi accedono a sistemi
multipli di riconoscimento in base alla funzione, alla memoria e ai collegamenti
tra i sistemi.
La ricerca é indirizzata non
solo sui sistemi e sulle funzioni ma anche sulla manovrabilità
e sulla costituzione, o struttura «fisica», o corpo della macchina.
e) Nuove tecnologie per nuovi sistemi
di organizzazione della conoscenza
Le nuove scoperte scientifiche parlano
di 'attrezzi' ad alto contenuto tecnologico che costituiscono l'interfaccia
tra la scienza pura e la scienza applicata. Uno di questi é il microscopio
ad effetto tunnel (STM, scanning tunneling microscope), uno strumento che
é capace di esplorare la materia di un oggetto in modo da individuarne
le rugosità fino al livello atomico. Si possono inoltre sfruttare
apparecchi abbastanza recenti di laser (ad esempio quelli in grado di produrre
impulsi calcolati in femtosecondi, 10-15 s) ed elaboratori con capacità
elevatissime di calcolo, necessari per gestire un enorme quantità
di dati. Dopo il silicio nuovi materiali possono trovare vita ultilizzando
la luce di sincrotone. Siamo già alla quarta generazione di macchine
che possono produrre la luce di sincrotone. Questa é una luce simile
al laser, ma concentrata di più nel dominio spettroscopico dei raggi
X ed é in grado di generare un fascio di radiazione polarizzata
estremamente intensa. Questo strumento a effetto tunnel puo' essere utilizzato
per ottenere materiali nuovi a fibre di carbonio.
Esiste poi un livello mesoscopico
della ricerca industriale. Nella mesoscopia l'unità di misura
é il nanometro (10-9 m). In questo caso non si parla solo di materiali,
ma di veri e propri oggetti: le cosiddette nanostrutture. Esempio ormai
classico é il microchip, la famosa piastrina di silicio che contiene
una memoria dell'ordine dei megabyte. Quello che a noi interessa é
che la miniutarizzazione dei sistemi di calcolo computazionale viene introdotta
nella micro-meccanica e dà inizio alla costruzione delle micromacchine.
Nel campo medico già funzionano dei microrotori che si installano
nelle vene per controllare il flusso del sangue. Il futuro é costruire
micro-robot che hanno componenti microelettronici e micromeccanici. Anche
a livello mesoscopico si costruiscono nuovi materiali. Uno di questi nuovi
materiali, ci ricorda Renzo Rosei,[53] si
ottiene «utilizzando le risorse dell'optoelettrica, e in particolare
una tecnologia già in in uso da anni, l'epitalassia a fascio
molecolare (MBE, molecular beam epitaxy)».[54]
Con l'epitalassia «si riesce a sintetizzare il materiale 'appoggiando'
uno strato atomico sull'altro. Il ricercatore puo' quindi controllare la
costruzione del materiale strato per strato, intervenendo per ottenere
un prodotto su misura. Una delle strutture realizzate con questo procedimento
é l'arseniuro di gallio e alluminio. Se si osserva il risultato
con un ingrandimento sufficiente si nota che la transizione da un componente
all'altro é assolutamente netta: quando cioé si passa da
uno strato atomico al successivo, si 'salta' improvvisamente dall'arseniuro
di gallio a quello di alluminio».[55]
A questo vanno aggiunti strumenti
che controllano il comportamento atomo per atomo. In questi ritornano gli
strumenti come il sincrotone, il microscopio a effetto tunnel e il laser,
per manipolare questi nuovi assemblaggi di materiali.
Nella fisica ad esempio gli scienziati
stanno pensando di costruire transistori a dieci stati, per poter eventualmente
introdurre e utilizzare una logica decimale invece che binaria nei computer.
Nella biologia, nella farmacologia, nella chimica si usano le nuove tecnologie
per ricostruire strutture pronte all'uso da utilizzare per nuove applicazioni.
La moleca del diamante usata come super conduttore é uno di questo.
Far depositare una pellicola di diamante sulla plastica diviene la sfida
per ulteriori sviluppi e per ricercare nuovi materiali. Un altro materiale
scoperto nel 1993 dalla università americana di Harvard, ancora
più duro del diamante é il nitruro di carbonio e che puo'
essere utilizzato anche a scopi di produzione industriale. Macchine sempre
più sosfisticate, come ad esempio l'APM, atomic processing microscope,
sono utilizate per spostare atomi in una reazione chimica scegliendo una
lunghezza d'onda opportuna.
Altra scienza che sta sfruttando al
massimo la tecnologia é la biologia. Gli amminoacidi, gli enzimi,
le proteine e finanche i virus sono oggetti di studio. Si adoperano la
luce al sincrotone e un rilevatore elettronico che cattura le figure di
diffrazione attraverso le tecniche della cristallografia a raggi X per
definire nei dettagli la struttura della molecola che si vuole studiare.
Questi studi possono produrre informazioni
in modo da inibire il proliferarsi di molecole nocive ad un organismo.
In farmocologia si trovano applicazioni; «infatti, la conoscenza
dettagliata della struttura di una sostanza responsabile di una certa patologia,
consente ai ricercatori di individuare il modo di inibire l'azione e puo'
portare alla costruzione di un farmaco progettato su misura di questo scopo».[56]
Conoscere l'enzima e la struttura
su cui si va ad agire e osservare il loro incastro o la serratura (o chiusura)
della reazione porterà a medicine molecolari che riducono
gli effetti collaterali.
Quanto fin qui detto é solo
per illustrare che a partire dalla macchina siamo arrivati alle macchine
biologiche che funzionano attraverso la fanerologia[57]
e che organizzano le informazioni sia nel corpo che nelle macchine con
il processo di retroazione [o feedback].
Questa differenza che si pone a partire
dall'organizzazione dell'informazione da parte di un organismo biologico
vivente oppure di un AI o di un computer o di un animale sia esso umano
o extra (o infra) umano tra breve potrebbe non esserci più. Penso
agli studi avanzati di «computer» biologici a sinapsi neurali
«indossabili» (questi sono dei sistemi informativi di cellule
nervose applicati ad altri sistemi biologici viventi utilizzati sia per
le informazioni che posseggono e sia per le funzioni che devono svolgere
nel nuovo organismo, come ad esempio gli esperimenti fatti sui neuroni
delle sanguisughe che un giorno non lontano potranno essere utilizzati
per il controllo del sangue e per la prevenzione degli infarti umani; questi
sono facilmente trasferibili nel corpo perché sono sinapsi di dimensioni
microscopiche;) che possono controllare le funzioni biologiche. Queste
applicazioni sono più vicine di quanto non si possa prevedere.[58]
Esiste, poi, parallelamente, un settore
di ricerca che negli anni ottanta é stato chiamato da Carver Mead,[59]
professore di scienza dei calcolatorti presso il California Institute of
Technology (Caltech), che viene denominato ingegneria neuromorfa «nell'ambito
del quale l'analogia dei dispositivi progettati e i neuroni reali é
più profonda, basata su corrispondenze fisiche e non solo formali.
In altri termini, nell'ambito dell'ingegneria neuromorfa vengono progettati
transistor che riproducono nel silicio i comportamenti dei canali ionici
della membrana di un neurone reale. Il risultato é un 'neurone di
silicio'. Un chip di silicio di un centimetro quadrato puo' contenere circa
200 neuroni connessi tra di loro. Quindi, in linea di principio, si possono
progettare in silicio reti di neuroni che emulano il comportamento di quelli
biologici su scala dei tempi dei nanosecondi, tipica dei dispositivi elettronici.
Le dimensioni degli attuali dispositivi elettronici sono comparabili con
quelle di un neurone, incluse le sue arborizzazioni più grosse.
In teoria é quindi possibile collegare fisicamente un neurone di
silicio a uno biologico. E' quanto propone di fare il gruppo di Gwendal
Le Masson dell'Università di Bordeaux, che descrive sistemi
a metà strada tra il naturale e l'artificiale, denominati
'ibridi'. Quest'ultimo esempio sottolinea come, nell'ambito della neuroingegneria,
il confine tra naturale e artificiale non sia netto e come sia possibile
ipotizzare che in futuro lo sarà sempre meno».[60]
Le ricerche attuali inducono a supporre
che nel prossimo futuro avremo macchine ibride tra il biologico e l'artificiale.
Se il futuro dell'evoluzione delle macchine attraverso il biologico potrebbe
anche essere costruito da ingegneri genetici in laboratorio, un'altra parte
del corpo delle macchine potrebbe venirci fornito dalle ricerche sui materiali.
Non é difficile prevedere che i nuovi materiali, che formeranno
il corpo delle macchine intelligenti del futuro, saranno costruiti in laboratorio
e saranno il frutto di assemblaggi dovuti ad una sofisticata e più
elevata tecnologia.
f) Il futuro delle macchine e l'ambiente
della informazione e del sentire robotico[61]
Il futuro é delle macchine
biologiche, é delle macchine dei sistemi di intelligenze artificiali,
é dei microcomputer, ecc. tutti forniti di sistemi di informazione
e di auto-aggiustamento strutturale, che sottolineano sempre più
l'introduzione nella organizzazione della vita su questo pianeta di macchine
intelligenti che comunicano. L'uomo già oggi ci appare come
una macchina chimico-elettro-meccanica dotata di molteplici sistemi di
informazioni eterofenomenologiche[62] che
si attivano secondo meccanismi individuali psicologico-strutturali[63]
di retroazione; infatti con l'attivazione dell'apparato macchinico si aggiusta
continuamente il proprio sistema di relazione con l'esterno.[64]
Il corpo umano in futuro sarà
di fatto una commistione di elementi biologici robottizzati, meccanici
robottizzati in connessione interattiva con quelli chimico-elettrici e
coi «residui» enzimatici dell'evoluzione naturale della specie.
L'ambiente tecnologico creato da un
nanorobot biologico e applicato al sistema vivente umano[65]
ad esempio porterà a ridefinire le frontiere dell'automa (o
del robot) e dell'uomo. Sappiamo per certo che sono intervenute nuove relazioni
linguistiche oltre che é sopraggiunta una nuova organizzazione del
sentire[66] umano che ha ridefinito le nostre
conoscenze sul corpo. Quando si ridisegnano i nuovi confini della organizzazione
della vita questi vengono tracciati attraverso la ridistribuire dei paradigmi
linguistici dettati dalle nuove conoscenze. Ci si riferisce palesemente
al concetto di paradigma di Kuhn,[67] con
cui sono stati vanificati, nel tempo attuale, i concetti di progresso e
verità . La evoluzione tecnologica ha contribuito internamente ed
esternamente alla organizzazione del mondo dell'uomo, sia dal punto di
vista linguistico che di relazione con l'ambiente. I simboli linguistici,
la produzione tecnologica e l'organizzazione della vita sono in stretta
relazione tra loro. L'evoluzione della cultura, nel mondo cibernetico della
informazione, si pone a fondamento della organizzazione del mondo delle
relazioni. La tecnologia, da questa ottica, va connessa e, pertanto, compresa,
sia per mezzo delle modificazioni prodotte dagli atteggiameti umani verso
il mondo o l'ambiente, sia per gli sviluppi linguistici, sia per l'organizzazione
delle conoscenze e sia per i rilevamenti sul funzionamento (o sulle modifiche)
dell'interiore e del proprio meccanismo percettivo (il corpo): «la
tecnica degli utensili é di fatto solo un settore della biotecnica:
l'attrezzatura dell'uomo per la vita».[68]
Non a caso oggi si sa che cambiando l'organizzazione o i paradigmi di riferimento
(sia fisici, che linguistici, che strutturali, che metafisici, ecc.) cambia
il mediocosmo per cui cambia il modo di sentire, di esperire e di agire
nel mondo del sistema biologico vivente.
Ecco come il complesso mondo fatto
di utensili pratici (o oggetti tecnologici) e linguistici (o organizzazione
metaforica del mondo) hanno indotto, parte di una generazione di filosofi,
linguisti, antropologi, umanisti, storici delle invenzioni, ecc¦
fino a scienziati a promuovere una indagine culturologica più approfondita
sul funzionamento del corpo, del cervello e della mente in relazione alle
scoperte e agli usi degli strumenti tecnologici. Essi hanno messo questo
funzionamento degli strumenti tecnologici in relazione allo sviluppo coevolutivo
umano con l'ambiente, luogo, quest'ultimo, dove vengono trovate applicazioni
alle scoperte individuali, sociali, scientifiche e tecnologiche. La vita
o l'organizzazione umana nel suo complesso, sta indirizzando la sua evoluzione
nell'uso di queste tecnologie, / anche se qualcuno parla di schiavitù/
ne ricerca e gode comunque i frutti
di queste conoscenze scientifiche applicate ai progressi della tecnica.
E non voglio riferirmi alle teorie
sviluppate dai contemporanei Bateson, Capra, Crick, Davies, Dennett, von
Foester, Hofstadter, McLuhan, Minsky, Piaget, Portmann, Turing, Wiener,
per citare solo alcuni noti filosofi-psicologi-biologi-neurofisiologi¦
e anche fisici-matematici-scienziati-ingegneri¦ accomunati a teorici
culturologi interdisciplinari che hanno iniziato a ricercare nuove spiegazioni
attraverso le scoperte biologiche, o fisiche dell'universo subatomico,
o della astrofisica¦ per coinvolgere le spiegazioni sulla organizzazione
della mente, del linguaggio, dell'informazione nel nuovo rapporto spazio-temporale
del «reale» e del «sentire» col corpo, alfine di
disegnare la nuova mappa della natura biologica del vivente. Definire l'essere
umano come uno dei sistemi biologici viventi apre la via a nuove forme
di ricerca impensabili e innanzitutto pone il problema sulla struttura
ed organizzazione della mente. Il nuovo pensiero, nella sua organizzazione
e applicazione linguistica, sia esso artistico che scientico che tecnologico
o adoperato per la costruzione di macchine o utensili trasforma tutto in
forme organizzate di informazione.
Fin dal passato si é sempre
sottolienato il valore pratico della scienza, anche nella ricerca scientifica
teorica delle verità astratte. Si noti ad esempio quanto afferma
Bacone nel suo Progresso delle Scienze: "Se la mia opinione avesse qualche
valore direi che l'impiego dei congegni meccanici tramandati dalla storia
é fra tutti gli altri fattori il più innovatore e fondamentale
per una filosofia della natura, quella filosofia della natura che non puo'
svanire nelle nebbie della speculazione, sottile o sublime o dilettevole,
ma che deve rendersi utile agli effetti del progresso e del vantaggio della
vita umana." E Descartes, nel Discorso sul Metodo, osserva: "perché
da queste restrizioni [le restrizioni generali della fisica] ho compreso
che si poteva arrivare a conoscenze altamente utili nella vita, ed in luogo
della filosofia speculativa abitualmente insegnata nelle scuole, scoprire
una pratica, grazie alla quale, conoscendo la forza e l'azione del fuoco,
dell'aria, dell'acqua, le stelle, i cieli, e tutti gli altri corpi che
ci circondano, tanto bene quanto conosciamo le varie arti dei nostri maestri
artigiani, noi potremmo similarmente applicarle a tutti gli usi cui essi
sono adatti, e render cosi' noi stessi i maestri ed i padroni della natura.
E questo é un risultato da desiderare, non solo per l'invenzione
di una molteplicità di arti, con cui possiamo diventare capaci
di godere senza alcun incomodo i frutti della natura, e tutti i suoi vantaggi,
ma anche e specialmente per la conservazione della salute, che é
senza dubbio, di tutte le benedizioni della vita, la prima e la fondamentale,
ché la mente dipende tanto intimamente dalla condizione e dalla
correlazione degli organi del corpo, che se si potrà mai trovare
un qualche mezzo per far diventare gli uomini più saggi e più
abili che per l'innanzi, io credo che questo debba venir ricercato nella
medicina".[69]
Oggetti e pensieri, esterno ed interno
non sono che un modo di organizzare la vita in un hic et nunc. Fenomenologia
epistemologia e teoria evoluzionista, con psicologia, fisica, biologia,
embriologia, morfologia e logica matematica, giusto per citare alcune neoscienze
iniziano a camminare di pari passo alle arti della tecnica nel mondo della
informazione. Tutte sono chiamate per svelare il mistero dell'esistenza
e dare il proprio contributo alla conoscenza umana; e non bastano semplici
confronti sull'analogia. Le questioni sorgono perché la meccanica
della mente non puo' spiegare tutto. Il problema centrale della mente e
della coscienza risiede oggi più che nell'individualità ,
nella funzionalità di un sistema operativo.
Da qui deriva la convinzione che sono
stati questi gli stimoli che hanno indotto gli uomini a ingegnarsi per
costruire automi sempre più adeguati alla configurazione delle tecnologie
cognitive, individuate e connesse all'incidenza e alla praticità
di utilizzo nell'ambiente.
La visione biologica elettrica e meccanica
dell'universo da noi conosciuto pone sullo stesso piano il mondo della
conoscenza e quello della organizzazione dei viventi. Sottolineare le tappe
di avvicinamento a questo nostro mondo e notare le differenze da quello
passato sarà utile specialmente per capire quanto siano dissimili
i meccanismi che operano dietro le organizzazioni delle diverse strutture
cognitive: solo in questo modo si potrà con maggiore esattezza
configurare il nuovo mondo dell'informazione. Il «sentire»
che se ne ricava é l'esperienza di una organizzazione vivente che
va dalla macro alla nanorobottizzazione.
Alcuni autori di romanzi di argomento
fantascientifco hanno utilizzato alcune di queste teorie che allora erano
studiate ed elaborate dalle scienze della cibernetica come ad esempio l'affermazione
a prima vista paradossale pubblicata nel 1981 nel romanzo VALIS che «il
mondo fenomenico non esiste; é un'ipostasi delle informazioni elaborate
dalla mente».[70] Queste affermazioni
sulla condizione umana non sono poi molto lontane da quanto affermava Calderon
de la Barca nell'opera «La vita é sogno».
Di questo dramma seicentesco comunque
vengono conservate in VALIS le direttrici rinvenute da Sigismondo per districarsi
in modo giusto nel vano sogno della vita dei sensi e per produrre opere:
«Operiamo mirando a cio' che é permanente e duraturo esclama
Sigismondo. E' questa la gloria che non soffre tramonti. Là la felicità
é sempre sveglia; e là le grandezze sono sempre vive».
Questo controllo delle verità della mente sui sogni ignoti
della natura oltre ad essere l'accettazione del progetto di Dio nel mondo
é anche sinonimo che l'uomo puo', con la ragione, scrutare comunque
la bellezza dell'ordine e delle disposizioni derivanti dalla Mente di Dio.
Spinoza parla dell'amore intellettuale di Dio, Leibniz del miglior mondo
possibile. Tutto questo é comunque metafora del risveglio della
scientificità operata dalle prime osservazioni ed esperienze
del nuovo modo di concepire la scienza nei laboratori del seicento. Dick
in VALIS si spinge oltre. Traduce nell'esperieza moderna la complessità
dell'influenza delle cose durature per giungere ad una sua organizzazione
della vita, che non é distante dallo scienziato-filosofo, e premiato
dal Nobel, Edelman o da Damasio o da Dennett. Noi qui preferiamo la chiarezza
divulgativa del romanziere-filosofo Dick che sintetizza scienza e filosofia
in una pagina letteraria. Conoscendo le scoperte scientifiche degli anni
'70, infatti, fa scrivere a Fat, nella sua ricerca di sé: «Annotazione
48. Sulla nostra natura. é appropriato dire: noi sembriamo essere
bobine della memoria (portatrici di dna e capaci di esperienza) in un sistema
pensante di tipo computerizzato il quale, malgrado noi abbiamo correttamente
registrato migliaia di anni di informazioni dovute all'esperienza, e ciascuno
di noi possieda depositi, in qualche modo diversi, provenienti da tutte
le altre forme di vita , manifesta dei difetti nella conservazione della
memoria. Qui sta il guaio del nostro particolare sub-circuito. La 'salvezza'
attraverso la gnosis (più esattamente l'anamnesi, la perdita dell'amnesia),
benché possieda un valore individuale per ciascuno di noi (un salto
quantistico in percezione, identità , cognizione, comprensione,
esperienza di sé e del mondo, compresa l'immortalità ) ha
un'importanza ancora più grande per il sistema in quanto totalità
, per il fatto che questi ricordi sono dati di cui esso ha bisogno, dati
preziosi per il suo funzionamento complessivo. Percio' esso é impegnato
in un processo di auto-riparazione, che comprende: ricostruzione del nostro
subcircuito attraverso trasformazioni temporali lineari e ortogonali, come
pure la trasmissione di segnali per stimolare i nostri banchi di memoria
bloccati ad accendersi e recuperare cio' che in essi é contenuto.
Le informazioni esterne, o gnosis, consistono dunque di istruzioni dis-inibitorie,
il cui contenuto di base é in effetti intrinseco a noi: ossia già
esiste (cosa che é stata osservata per la prima volta da Platone:
ossia che l'apprendimento é una forma di ricordo). Gli antichi possedevano
delle tecniche (sacramentali e rituali) largamente utilizzate nelle religioni
misteriche greco-romane, compreso il cristianesimo primitivo, per indurre
l'accensione e il recupero, soprattutto con il fine di restaurare dei valori
per l'individuo; gli gnostici, tuttavia, vedevano correttamente il valore
ontologico di quella che loro chiamavano la Divinità Stessa,
l'Entità Totale».[71] In
questo modo un romanziere contemporaneo collega la propria esperienza alle
discipline scientifiche e ridefinisce, paradigmaticamente, il concetto
di divinità .
E' chiaro a questo punto perché
é necessario un continuo rimando ai processi fisiologici e cognitivi
del cervello. Bisogna conoscere come viene assemblato il nuovo robot, attraverso
quali nuovi automatismi e da quali nuove connessioni e sensibilità
sono provocate le relazioni tra macchine e macchine, e quali ulteriori
relazioni ci sono tra macchine e sistemi biologici viventi nel mondo della
informazione. Importante é osservare come l'organizzazione di queste
macchine abbia la stessa struttura operativa dei sistemi biologici viventi;
o come esercitano le loro funzioni di controllo, o addirittura come forniscono
al corpo umano strutture operative per sopravvivere nell'ambiente. Solo
da alcuni decenni si sono ottenuti i primi risultati nel campo biologico
della fanerologia, cioé dei trasferimenti di informazione attraverso
la luce nei sistemi biologici.
In molti casi il robot coevo vive
ancora di complessi processi di cip elettrici (sono rare e segrete le ricerche
sui primi assemblaggi biologici di strutture cognitive autonome viventi
create in laboratorio, sono riscontrabili solo in autori di fantascienza,
come ad esempio il su citato Dick, nei suoi romanzi «The Simulacra»
e «Blade runner» fino alla trilogia di «Valis»
solo là sono descritti e, addirittura, si confondono gli esseri
biologici viventi costruiti in laboratorio con gli altri organismi biologici
viventi provenienti dalla lunga catena della selezione naturale).
Il robot oggi puo' avere sembianze
più vicine all'organizzazione dell'umano, non solo perché
c'é stato uno sviluppo migliore della tecnica della costruzione,
con la scoperta dei nuovi materiali, ma lo stesso suo interno é
cambiato. Si é modificato innanzitutto il modo di far circolare
dentro di esso le informazioni; ovvero sono cambiati i componenti assemblativi
e i materiali e, con essi, la sua stessa organizzazione. L'organismo robotico
necessita di maggiore elasticità flessibilità
e leggerezza nonché ha bisogno della forza e di essere sempre più
adeguato al nostro mondo elettronico attuale della circolazione di informazioni.
Addirittura il robot inizia a sentire come gli umani (nel senso di riconoscere
e rispondere alle sollecitazioni chimico-elettriche azionando alcuni dei
dispositivi di risposta degli umani in modo autonomo). L'automa, il robot
ed il nanorobot dopo essere passati dal mondo mitico alla «camera
delle meraviglie» e poi usati come fantastici soggetti filosofico-letterari
o fantascientifici, oggi fanno irruzione nella vita quotidiana come operatori
autonomi e manipolatori di informazioni.
Quali aggiustamenti strutturali e
di forma si richiedarà al nostro corpo nel futuro per la sopravvivenza
nell'ambiente lo sapremo prossimamente. Dovremo cedere una parte dell'ambiente
vitale affinché queste macchine artificiali ci semplifichino la
vita: se da una parte siamo agevolati per la nostra sopravvivenza nell'ambiente,
dall'altra avremo uno spazio vitale più complesso da gestire. Noi
lasciamo trattare questo tema ai nuovi esploratori del progresso scientifico;
e non dimentichiamo di accennare come le modifiche fisiologiche, che si
paventano in molti romanzi di fantascienza, possano trasformare gli umani
in creature tanto diverse da oggi fino ad apparire mostruose ai nostri
occhi, pur essendo il prodotto proprio dalla neo-civiltà tecnologica.
Gli automi realizzati dagli uomini
nel passato potevano essere soltanto meccanici, grazie alla scienza genetica
si é iniziato a formalizzare una teoria degli automi applicata ai
sistemi viventi.[72] Questa teoria é
basata sulla analogia, per tener conto delle difformità di
elaborazioni di risposte.
Non a caso la genetica moderna, ancora
molto legata alla biologia molecolare, nella sua pratica attuale, é
di carattere decisamente riduzionista. Questo genera molte difficoltà
. I fenomeni del vivente, proprio perché osservati da queste giovani
scienze richiedono spiegazioni frammentate, per la complessità
dei fenomeni, prima di giungere ad una visione unitaria d'assieme. Questa
visione integrata o d'assieme dei fenomeni prima o poi avrà
ragione sui sistemi operativi non ancora compresi. Il riduzionismo scientifico
non ha ancora compreso il funzionamento della memoria, del pensiero, del
comportamento, per cui non si possono ricreare le condizioni di quegli
«atomi» di memoria, di pensiero di comportamento, utili affinché
si possa giungere ad una costruzione sistematica che avrebbe come fine
una prospettiva integrata. Per ora si ipotizza che le entità
elementari siano costituite dal moltiplicarsi di queste reti funzionali
di neuroni, che al momento non sono state identificate o definite. Ridurre
la complessità del funzionamento cerebrale a un iniseme di
unità elementari potrebbe essere considerato senza senso,
per cui per questi sistemi cosi' complessi non potrebbe esistere un approccio
riduzionista. Ma la fiducia é tanta se si pensa che la chimica,
ai primordi veniva considerata come una magia prima che si scoprissero
gli atomi e le molecole. La stessa eredità biologica era un
mistero prima che si rinvenisse la spiegazione dei geni. Prima o poi in
un prossimo futuro troveremo elementi appropriati con cui si integrerà
il funzionamento (o almeno parte) del sistema nervoso e del cervello-mente.
Cio' che ha portato alla formulazione
di una teoria degli automi biologici applicata al sistema vivente é
quella di costruire dei modelli che coinvolgono un gran numero di elementi
interattivi che vengono poi fatti interagire. Analizzando i vari comportamenti
se ne trovano analogie con le risposte dei sistemi biologici viventi. Ad
esempio una rete di automi.[73] Viene definito
automa un componente capace di esistere su più stati, il più
semplice é quello su due, attivo ed inattivo. Ognuno di questi automi
viene collegato con quello prossimo da una legge di interazione. Esso trasmette
segnali e puo' cambiare stato in funzione di quei segnali che esso stesso
riceve. L'introduzione di costanti nel tempo di trasmissione e di risposta
inducono gli osservatori ad una descrizione di reti di automi in funzione
del tempo di esposizione. Simulazioni al calcolatore, poi, permettono di
fare esperienze di reti di grandi dimensioni, come una rete piana di più
di un migliaio di elementi. La risposta di questi automi sul lato comportamentale
di solito é imprevedibile. Alcuni si raggruppano in isolotti coerenti
di automi, certi vengono agitati dalle oscillazioni mentre altri identici
restano costanti, degli anelli interattivi si formano tra gruppi di automi
o tra quelli isolati , ecc. Queste relazioni inducono a formulare modelli
per poter descrivere programmi genetici e per poter accostarsi alle reti
funzionali dei neuroni. Da qui poi nascono i primi passi per una teoria
degli automi legata ai sistemi biologici viventi e si connettono alle scoperte
dell'ingegneria genetica con la costruzione dei primi nanorobot biologici.
Nell'arte tecologica questa esperienza é proposta dall'«artista»
bio-tecnologico Eduardo Kac.[74]
Il sentire estetico delle macchine,
specie quello prodotto dai nuovi nanorobot biologici e le risposte alle
alterazioni chimico-elettriche a cui il nostro organismo é sottoposto,
produrrà una nuova generazione di umani che piano piano modificherà
la sua stessa struttura biologica adeguandola al nuovo ambiente che si
sta costruendo. Non a caso sul nostro pianeta da quasi un cinquantennio
l'uomo sta modificando non solo l'intera organizzazione della vita ma quella
degli stessi sistemi biologici viventi: quello degli animali, degli uomini
ecc¦ anche di tutte quelle neo-macchine biologiche che ora iniziano
a pensare e ad agire autonomamente. Ad esempio la biotecnologia e l'ingegneria
genetica propongono già oggi i nuovi processi di produzione
di esseri viventi transgenici finalizzati a costituire «una nuova
stirpe umana», a parte i cloni che sono divenuti quasi fenomeni marginali.
E l'arte? credo che sarà
considerata sempre più un «bene culturale», cioé
diventerà produzione di strutture e di tecnologie che potranno
essere rivelatrici di molteplici forme di sentire. L'arte sarà
azionata dalle organizzazioni delle forme e dal «sentire» del
biologico, nel vivente e nelle macchine.
Non a caso altrove ho evidenziato
come
«L'arte come strumento d'informazione
biologico-culturale, che lega l'uomo occidentale alle vestigia del pensiero
e del 'sentire' greco-romano, é diventata patrimonio dei Beni ambientali
e culturali presenti in questo nostro Bel Paese. Essa puo' essere utilizzata
anche come merce, ma la stessa merce deve presentarsi come informazione
e essere promossa e divulgata a tutti come Bene culturale. I nuovi artisti
dovranno sempre più avere dalla loro organizzatori di informazioni
che promuovano cio' che si simula (e/o si imita) nelle opere e facciano
circolare informazioni sulla 'architettura' e sulla 'tecnica' della costruzione
dell'opera. Solo cosi' gli artisti possono sperare di ricevere riconoscimenti
e consensi per le loro opere e fare in modo che un giorno siano promosse
a Bene della evoluzione culturale umana. Questa é comunque la nuova
finalità dell'opera nella organizzazione delle informazioni
(o cibernetica) attraverso i sistemi dell'artistico: essere promossa a
Bene Culturale invece di affermarsi per morire nel vecchio, obsoleto e
riduttivo circuito dell'arte».[75]
g) Conclusione Quale Arte?
La prima evoluzione della macchina-automa
c'é¨ stata quando si scopri l'elettricità come
energia e se ne inizio' la produzione. Si é in seguito cercato uno
strumento tecnologico che permettesse il controllo e lo smistamento di
tale energia e poi si é iniziato a studiare dei sistemi computazionali
e di riconoscimento che permettessero una autonomia alle macchine. Oggi
i dispositivi computazionali (i microprocessori) e i sensori di riconoscimento
(dalle cellule fotoelettriche a quelle opticoelettriche o televisive o
ai radiosensori o ai radarsensori satellitari ecc) stanno diventando circuiti
essenziali delle macchine intelligenti della nuova generazione. Questi
dispositivi immessi in quelli tradizionali (quali il frigorifero, la lavatrice,
l'automobile, il telefono, ecc.) li trasformano dando loro sensibilità
e intelligenze autonome.
L'intelligenza artificiale dei sistemi
computerizzati «alla fine del secolo e del millennio, si presenta
come la nostra via di accesso, il nostro canale verso il mondo cablato,
con tutte le sue meraviglie e con tutti i suoi turbamenti digitali».[76]
Essa ci sta permettendo di rinnovare
gli strumenti di pensiero e ha messo in funzione un nuovo modo di collegare
tutto il sapere dalla mitologia alla tecnologia, attraverso l'estetica
della comunicazione.[77] Un ulteriore sviluppo
si avrà non appena avremo compreso l'operatività
del linguaggio naturale con la scoperta degli effettori degli agenti intelligenti,
studiati presso l'Institute for the Future e il MIT. Una volta che la neurofisiologia
e la biologia avranno scoperto come gli agenti intelligenti operano nel
processo informativo, lo si potrà tradurre facilmente in un
sistema di informazione elettrica. Potremo dotarci di programmi intelligenti
autonomi che in base al riconoscimento delle richieste di una persona autonomamente
andranno in rete o nella memoria del computer per ricercare prelevare i
dati effettivi della richiesta, anche a distanza, come se fossero agenti
della persona delegati a quel tipo di funzioni, mentre ad esempio la persona
potrebbe essere assorta in altre operazioni.
Ci sarebbe da chiedersi se le sorprese
del futuro ce le riserveranno più i nuovi materiali o i nanoprocessori,
o la robotica, o la scienza delle informazioni, o le neuroscienze, o la
chimica, o la biologia, o la ingegneria genetica comprese le tecnobiologie.
Sappiamo comunque che dai personoidi[78] ad
oggi, in meno di vent'anni, il sentire delle macchine ha sviluppato una
sensibilità e una capacità di operazione che
si calcola in miliardi di miliardi di miliardi di bit.
L'arte é, oggi, sempre più
trattata dai critici come un sistema operativo organizzato, a cui si accede
attraverso l'energetica riconoscitiva di una forma, ma proprio allo stesso
modo funziona il sistema che manovra una tecnologia.
Si é fermamente convinti che
i prossimi interrogativi sull'arte saranno strettamente legati agli sviluppi
delle macchine.
Per avvalorare questa tesi desidero
qui ricordare quanto l'allora giovane e promettente ricercatore, Herber
Simon, scrisse nel convegno del 1956 a Darmouth sulla AI. Egli fu colui
che preconizzo' cio' che da qui a una quindicina d'anni potrà
essere in una fase avanzata di realizzazione. In quel periodo gli scienziati
vedevano nel computer una macchina calcolatrice suprema, ovvero un cieco
e rapidissimo computatore che tratta cifre ed é capace solo di obbedire
agli esperti inventori, o conoscitori, del programma. Di lui gli informatici
affermavano «spazzatura dentro e spazzatura fuori», in quanto
un computer non poteva mai essere in grado di prendere alcuna iniziativa
senza eseguire le istruzioni ricevute. Ma Simon oso' sfidare questi dogmi,
pensando che gli studiosi di informatica avessero una visione troppo ristretta
delle capacità di un software. A quasi quarantacinque anni
di distanza qualcosa é enormemente cambiato nella evoluzione dei
computer e presto altro cambierà . Questo é quanto egli scrisse:
«Quest'affermazione, cioé
che i computer possono fare cio' per cui sono stati programmati, é
intuitivamente ovvia, indubitabilmente vera, e non contiene nessuna delle
implicazioni che di solito se ne derivano.
Un essere umano puo' pensare, imparare
e creare perché il programma fornitogli dal suo patrimonio biologico
e i cambiamenti prodotti in quel programma dall'interazione con l'ambiente,
che l'uomo ha fin dalla nascita, gli permettono di pensare, d'imparare
e di creare. Se un computer potrà un giorno svolgere queste
stesse attività , lo farà in virtù di un programma.
E' chiaro che tale programma richiederà , come quello umano, un
comportamento non ripetitivo né stereotipato. Avrà
invece gli strumenti per analizzare la propria attività , diagnosticare
i fallimenti trarne insegnamenti per aumentare la propria efficacità».[79]
La domanda di Simon potrebbe essere
cosi' esplicitata: «L'uomo da quale tecnologia é stato programmato
o 'creato'?, da quali tecnologie avanzate di costruzione o di assemblaggi
di nuovi materiali é venuto?, e, ancora, la terra e l'ambiente umano
é reale o virtuale?».[80] Se
fosse vera questa ottica ci sarebbero alcuni interrogativi a cui da oggi
dovremmo trovare risposte e che qui formuliamo per gli studiosi di scienze,
d'arte, di filosofia e di tecnologia.
Nei prossimi anni parleremo ancora
di arte tecnologica fatta dagli umani? O il futuro sarà delle
macchine, che, provviste di memoria biologica o di memoria robotica o di
una memoria ibrida tra quella biologica e quella robotica, verranno dapprima
programmate e in seguito si autoprogrammeranno, attraverso autoaggiustamenti
strutturali, per produrre arte tecnologica?
Si devono iniziare a porre le prime
differenze tra l'informazione e la operatività prodotta finora
da un sistema ancora umanizzato della tecnologia dell'arte e quello totalmente
prodotta dalla macchina, o meglio, dall'arte della tecnologia?,[81]
¦ E poi la produzione della macchina o dell'uomo sarà
considerata ancora arte? O come sta capitando sempre più, questa
produzione dovrà essere considerata un bene ambientale e culturale?
Il «sentire» del cervello-memoria dell'interfaccia uomo/macchina
navigherà in altri mediocosmi? E di questo nostro mediocosmo
cosa ne faremo? Attraverseremo luoghi in cui i calcoli delle proprie mappe
cognitive tracceranno miriadi di percorsi integrati / o estremi / di esperienze
da cui ricavare miriadi di informazioni? E quali di queste informazioni
saranno riconosciute da agenti della persona-macchina o quali dalla macchina-macchina?
L'ambiente che esperiremo lo potremo ancora considerare naturale, cosi'
come abbiamo considerato la «natura» fino ad oggi, o entreremo
e usciremo da ambienti computati «artificialmente» che oggi
chiamiamo simulati o, più comunemente, di realtà virtuale?
Questi ambienti a loro volta potranno essere considerati la forma-luogo
o corpo-sito operativi, attraverso cui si manifesta quel nuovo mediocosmo
tecnologico di cui si parlava all'inizio? Un giorno potremo attraversare,
con gli agenti intelligenti, gli infiniti mediocosmi e poter scendere ed
esperire le profondità energetiche inifnitesimali delle organizzazioni
della vita biologica fino poi a risalire nelle organizzazioni macrocosmiche
dei sistemi planetari? Quale macchina (biolgica vivente o meccanica, o
ibrida?) scriverà / e ci sarebbe da chiedere anche in quale lingua
computazionale verrà codificata / la Nuova Commedia del Cosmo?
L'uomo-macchina oltre che a trasferire
nei circuiti di Internet le computazioni delle opere d'arte del passato
come il David di Michelangelo a Firenze,[82]
sta iniziando anche a produrre opere d'arte da visionare solo in Internet[83].
Forse che l'organismo biologico vivente[84]
sta trasferendo in questo suo nuovo mediocosmo tutte le sue informazioni
di questo «vecchio ambiente» per poi riorganizzarle e connetterle
in una nuova struttura e in una nuova concatenazione/correlazione di rete
neurale producendo cosi' delle nuove forme legate a dei nuovi sistemi operativi?[85]
Gli eventi che accadranno in un futuro
più lontano verranno sentiti solo dalle connessioni neurali del
cervello o troveremo il tempo, come organismo umano, di verificare quelle
elaborazioni di informazioni anche in questo nostro ambiente?
A questo punto mi fermo perché
sembra che mi sia spinto oltre i limiti consentiti dalle ipotesi scientifiche
e sia già entrato a far parte anch'io di un romanzo di fantascienza
della letteratura cyber.
***
Mi sia concessa un'ultima riflessione.
Dallo studio delle prime organizzazioni degli stati «inanimati»
della materia nel mondo subatomico agli organismi viventi, al funzionamento
del cervello (dove si dovrebbe collocare / per ora / anche la realtà
che é apparsa con le prime macchine che sentono gestite da «memoria»
computerizzata, che reputo ancora a basso calcolo rispetto a quella animale
e umana), a quello delle organizzazioni superiori della mente e del sistema
sociale fino a convolgere l'intero «Universo » di Popper, si
rinvengono in modo progressivo verso l'alto le forme di organizzazione
e complessità . In questa progressione la mente umana e la società
possono rappresentare solo uno stadio intermedio sul cammino del progresso
organizzativo del cosmo. Ecco perché, per ricondurci all'inizio
del nostro excursus, lo scopo teleologico dell'azione diventa oggi importante.
Esso ci svela verso quali equilibri organizzativi é diretta l'azione.
Il futuro sarà quello di costruire mondi e macchine funzionanti
con maggiore elaborazione di calcoli che tenegano conto di mediare con
le leggi dei vari livelli di complessità . Dovremmo a questo aggiungere
che vi é un interscambio tra mondo subatomico, quello degli oggetti
fisici, il mondo della mente, dell'organizzazione sociale e dell'informazione.
Una testimonianza evidente é
il raggio laser, che senza la scoperta della meccanica quantistica non
potà essere costruito e, la sua luce artificiale, oggi, viene utilizzata
in parecchie macchine neotecnologiche di uso comune.[86]
Non a caso molti prodotti dell'Universo
stanno diventando sempre più elaborati e complessi e si pensa che
presto potremo attraversare una nuova soglia di complessità
che porta ad un livello ancora più elevato di organizzazione dotato
di nuove leggi (basti pensare a come calcolare la possibile interazione
e organizzazione uomo-ambiente che coinvolge un ecosistema di informazioni
cosi' complesso quale é la terra inteso come organismo biologico
vivente¦ e a quali altri studi potrebbe indirizzare). Oppure potrebbe
emergere un'attività collettiva di natura astratta che oggi
possiamo a mala pena immaginare, o che non siamo ancora in grado di concepire.
In qualche parte dell'universo, o anche in qualche oscuro laboratorio del
nostro pianeta, questa soglia potrebbe essere già stata attraversata
e noi invece non ce ne rendiamo ancora conto.
Internet é la prima dimostrazione
di come una organizzazione di un mondo immateriale diventa operativo anche
nelle relazioni materiali. Il computer, le nuove tecnologie e i nuovi materiali
ci danno strumenti-protesi che ci dischiudono a mondi di organizzazione
e di calcoli superiori fino a quando non troveremo altre «protesi»,
ed altri strumenti per svelare altri mondi organizzati e operativi.
La macchina che sente ci svela un
mondo teoretico che i filosofi contemporanei non hanno ancora esplorato,
vi sono qua e là solo dei pionieri, credo ancora per poco inascoltati.
Uno dei problemi centrali di questo
nuovo universo filosofico ce lo ha descritto attraverso la fisica John
Wheeler che si chiedeva come sia possibile «che una pura informazione
(cioé il software) possa in certi casi modificare lo stato reale
di un oggetto macroscopico (l'hardware)?».[87]
Domanda che coinvolge da una parte
l'organizzazione della vita a livelli macroscopici / si pensi ad esempio
l'insinuarsi di un pensiero ossessivo o al manifestarsi di un evento insignificante
per gli altri, ma che modificano entrambi l'intero progetto o costruzione
di vita futura di un uomo. Legittimo é chiedersi a questo punto,
in base alla propria organizzazione, quale é la soglia oltre la
quale un soggetto fisico é indotto a modificare le proprio riflessioni
filosofico-speculative e le proprie risposte al mondo; nonché in
che modo si é indotti ad indagare, simulativamente, cio' che potrebbe
accadere in una differente, e sempre probabile, impostazione della interpretazione
della vita; e infine come si rilevano i possibili diversi atteggiamenti
quotidiani che si assumono.
La risposta é unica: si registra
il cambiamento di atteggiamento allo stesso modo di come si conducono gli
sperimenti nella fisica subatomica o nella costruzione delle macchine attraverso
il principio di retrocausalità _ un principio di analisi analogo
poteva essere quello dell'indagine psicoanalitica, ma anche questa andrebbe
aggiornata in quanto gli studi recenti sul cervello e la mente portano
ad una organizzazione neuronale del simbolico.[88]
Un simbolo appare sempre in connessione
ad una configurazione operativa di significati.
Partendo dai principi di Bohr Wheeler
si rinviene che una misura ha bisogno di una sorta di amplificazione irreversibile
che si traduce in una registrazione o in una traccia. A cio' deve aggiungersi,
per Wheeler, che una misura ha luogo solo quando esiste una registrazione
significativa: ovvero c'é uno strumento che lo ha rilevato e registrato.
Ritorniamo cosi' ad una nozione alquanto astratta di una «comunità
di investigatori» che sono interessati a registrare le variazioni
dell'impulso di un contatore geiger in quanto lo spostamento dell'indicatore
significa qualcosa. Wheleer segna un percorso di causalità
o azione. Egli nota come dalle particelle elementari, attraverso le molecole
e la organizzazione degli oggetti macroscopici si giunge fino agli esseri
comunicatori e «coscienti», e alle loro affermazioni significative
fino ad esortarci «ad abbandonare come fondamento dell'esistenza,
una fisica hardware situata "là fuori" e a mettere invece
al suo posto un significato software».[89]
Wheleer ci vuole rendere palese come il significato o informazione, o software
viene elevato ad una funzione primaria, mentre le particelle della materia
diventano secondarie. A questo punto il fisico afferma che «la fisica
é figlia del significato anche se il significato é figlio
della fisica».[90]
Il significato é importante
se genera delle reazioni nel mondo fisico delle particelle elementari.
Egli considera questo evento come «il ritorno del circuito».
Bisogna anche ricordare, cosa che
Wheleer in questo articolo non fa palesemente ma che a mio giudizio sottende,
che il ritorno del circuito é rispetto a quell'osservatore a quegli
strumenti di osservazione e a cio' che si ricerca; mentre se é ancora
enigmatica la ricerca e le aspettative di reazione nella causalità
verso il basso, é ancora più oscura la ricerca che va «verso
l'alto». La scienza attuale non conosce a fondo i dettagli delle
causalità verso il basso, salvo che per un aspetto quello
degli strumenti e di cio' che si vuole ricercare ecco perché si
ha bisogno del ritorno del circuito (una sorta di retroazione come abbiamo
visto che avviene nella macchina). Infatti il corso della causalità
verso l'alto si muove in avanti rispetto al tempo: ovvero l'atomo decade,
viene emessa una particella, il contatore scatta, lo sperimentatore legge
l'indice dello strumento¦[91] Il ritorno
del circuito, si manifesta cosi' a ritroso nel tempo. Wheeler illustra
cio' con un nuovo esperimento che é stato chiamato esperimento di
scelta ritardata, che pone una sorta di retrocausalità .
Il doppio mondo quello degli oggetti
fisici che divengono e sono sistemi operativi complessi e quello delle
teorie scientifiche, richiama alla mente la filosofia di Prigogine sulla
irreversibilità riscontrabile in tutte le interpretazioni
di una misura quantistica, per cui i fenomeni irreversibili sono primari
/cioé i fenomeni del divenire sono di natura primaria /, mentre
i processi reversibili sono approssimazione o idealizzazioni di natura
secondaria /i fenomeni espressi dalla filosofia dell'essere /.
Far diventare reversibile il principio
su cui si fonda l'Essere pone un mutamento sostanziale sull'intera speculazione
filosofica, rimane pero' il sistema operativo-cognitivo che produce informazioni
sull'organizzazione di quell'uomo (o meglio, di quell'organismo vivente
umano) e sul suo sistema operativo. Ecco come Erwin Schrodinger, uno dei
padri fondatori della fisica quantistica, scrive nel suo libro What is
the life?: «Un organismo ha una stupefacente capacità
di concentrare in se stesso un 'flusso d'ordine', evitando di decadere
nel caos degli atomi †la capacità di â€bere
ordine†da un ambiente adatto».[92]
Ancora una volta la fisica si propone
di non contraddire le leggi fondamentali della vita, e di comprenderne
solo il funzionamento. La frase di Schrödinger Schrodinger
significa, contraddicendo la comune opinione secondo la quale gli esseri
viventi consumano energia, che l'energia non si crea né si distrugge,
ma si conserva. Paul Davies cosi' commenta «Quando una persona metabolizza
del cibo, nel suo corpo si libera dell'energia che quindi si dissipa nell'ambiente
sotto forma di calore o di lavoro svolto mediante l'attività
fisica. L'energia totale racchiusa nel corpo della persona rimane più
o meno immutata: il corpo é invece attraversato da un flusso d'energia
grazie all'ordine, o entropia negativa, creata dall'energia consumata.
L'elemento essenziale che garantisce la vita é dunque l'entropia
negativa».[93]
Affermare che il mondo futuro guarderà
sempre più all'uomo come sistema operativo autorganizzantesi i cui
fondamenti di sopravvivenza si trovano nell'organizzazione e nell'informazione
e nel suo aggiustamento strutturale con l'ambiente é un fatto acclarato.
Non a caso si crede oggi che la materia
«imbocca oggi due strade diametralmente opposte: una quella della
vita, che si evolve verso stati sempre più ordinati; l'altra, quella
inanimata, che cade in un disordine crescente sotto la spinta della seconda
legge della termodinamica. Eppure in entrambi i casi gli elementi componenti
/ vale a dire gli atomi / sono sempre gli stessi».[94]
In effetti cio' che vive é
l'ordine. Il paradosso odierno della vita pero' puo' essere cosi' espresso.
Man mano che si evolvono i sistemi biologici la vita si manifesta con una
maggiore organizzazione; dall'altra parte, peo', la seconda legge fisica
della termodinamica, che sovrintende proprio ai mutamenti dell'ordine,
ci ha dimostrato che il nostro universo in espansione stabilisce un costante
aumento del disordine. Come cio' é possibile? Il compromesso tra
fisica e biologia é per ora risolto in questo modo. Se in alcuni
settori o specie viventi si manifesta maggiore ordine viene prodotta anche
maggiore entropia che si riversa su altri settori.
Ruolo importante assume in questo
caso la organizzazione ed il sistema per conservare l'ordine. Nella conservazione
dell'ordine é conservato in biologia il segreto della vita. La vita
non é più riscontrabile negli atomi che compongono la cellula
vivente, ma in che modo questi atomi sono organizzati, ovvero quale informazione
é codificata nelle strutture molecolari e quali sono le sequenze
genetiche. La forza vitale un distinguo filosofico importante nel secolo
scorso diventa «superfluo» di fronte alla organizzazione della
informazione: «Una volta che si é resi conto dell'esistenza
dei fenomeni per cosi' dire collettivi, il concetto di forza vitale diviene
superfluo. Non occorre più che gli atomi siano 'animati' affinché
conferiscano alla materia proprietà della vita: basta che
siano organizzati in un certo modo, per quanto complesso possa essere».[95]
Da questa ottica una clonazione di
vivente o di un automa-robot che automodifica il suo sistema percettivo
e si avvale di molteplici e sempre più complessi sistemi di riconoscimento
é da considerarsi vivente oppure no?
E' questo un problema solo estetico
o anche etico? Se un automa prodotto dall'uomo sente, quando organizza
il suo sentire, cio' che percepisce lo avverte al pari di un essere biologico
vivente? La mitologia non dice molto sull'argomento.
Le indicazioni generali sono le seguenti:
Gli automi, nonostante che affrancassero gli uomini dalla schiavitù
del lavoro, in mano agli umani sono divenuti per sempre causa di danno,
ma in mano agli dei erano un piacevole intrattenimento.
|
NOTE
* Inteso
qui proprio come una sensorialità percettivo-cognitiva.
[1] La scienza
cibernetica in generale si interessa dell'uomo con i suoi congegni meccanici.
Platone lo ha indicato nella Repubblica con il termine kubernhtikhv, che
significa pilota o timoniere. Va notato comunque che la parola inglese
governor (meccanismo regolatore) é soltanto la forma latinizzata
di quel termine greco che significa timoniere. La cibernetica, pertanto,
si interessa di messaggi e di strumenti di comunicazione. Essa studia i
messaggi in relazione ai mezzi di comunicazione che si instaurano ricorsivamente,
o si costruiscono, o intercorrono, per evoluzione, tra uomini, tra uomini
e animali, tra uomini e macchine e nel futuro tra macchine e macchine.
Cfr. norbert Wiener, La Cibernetica, Milano, Bompiani, 1953.
[2] Gli scienziati
e studiosi delle neuroscienze e delle scienze cognitive, a partire dalla
scienza cibernetica, hanno giudicato come centrale la conoscenza del funzionamento
del cervello, anche per i cambiamenti biologici e per la evoluzione. Da
una parte la ricerca si é volta a comprendere come si é evoluto
biologicamente il cervello nel suo sviluppo filogenetico fino alla attuale
complessità di struttura, dall'altra sta tentando di comprendere
come durante questo processo evolutivo, che é durato un tempo filogenetico
lungo miliardi di anni, il cervello incorpora ed organizza informazioni
sul mondo. Queste indagini hanno indotto gli scienziati a credere che il
cervello si é evoluto ed ha automodificato la propria struttura
fisico-biologica durante tutto il processo evolutivo. Bisogna anche tenere
presente, se si desidera meglio comprendere queste modificazioni fisico-biologico-operative,
che il concetto di struttura é sinonimo di quello di informazione.
Il cervello di un neonato é il prodotto evolutivo di elaborate informazioni,
sia di cervelli a lui simili sia di cervelli che sono scomparsi. Questi
atteggiamenti vengono chiamati strutture congenite. In conclusione il cervello
é il prodotto finale di due processi quello filogenetico e quello
dello sviluppo individuale. Il processo filogenetico ci é ancora
quasi del tutto oscuro, pur pensando che la teoria darwinista possa essere
giusta, ma i particolari e le tappe di questa evoluzione non é possibile
rintracciarle né in modelli di strutture biologiche né ricostruirle
attraverso le varie fasi o tappe, allora si va per ipotesi simulative fantascientifiche.
Gli studi attuali sul cervello sono indirizzati quasi tutti sulle modificazioni
del cervello individuale e sulle esperienze del cervello nel suo sviluppo
dall'embrione alla morte. Importanti diventano gli studi sulla trasmissione
biologica delle informazioni e la permanenza e la organizzazione delle
informazioni in un nascituro. Quanto fin qui illustrato é importante
per comprendere come si configura e si progetta oggi un robot con caratteristiche
biologiche e quali potrebbero essere gli sviluppi futuri della scienza
bio-robotica.
[3] Francesco
Piselli nelle sue pagine su l'Estetica Biblica riflette come nel passato
venivano percepiti i tropi. Essi pur stando al posto di, sono modi di manifestarsi
e sono finalizzati a conservare equilibri naturali; infatti, seppure siano
emblemi di sostanza metaforica e di derivazione contemplativa mistico-alchemica
in quelli la fuvsi" si presenta come organizzazione visibile, tangibile
e sperimentabile nel qui ed ora del progetto metafisico. Il tropo, cioé,
non é un rappresentare della mente ma un apparire organizzato già
presente nella forma che si manifesta al suo nascere: E' l'apparire della
forma nella volontà organizzativa della sostanza. Si veda
specie Occasioni di estetica biblica, di F. Piselli, Pagine di estetica,
Edisud, 1989, ripresa nella nuova edizione «variata, ritoccata e
innovata» nel capitolo Spunti di estetica biblica, sta in Suono lontano,
Milano, Vita e Pensiero, 1994, pp. 51-86. Importante ed attuale poi, di
questo autore, é anche lo studio del rapporto Corpo-estetica-cosmologia
e l'analogia tra scienza antica e moderna. A tal proposito si vedano principalmente
i saggi Physica, e Dal cerchio al cerchio, in F. Piselli, Scenari di estetica
e cosmologia, Milano, Vita e Pensiero, 1995, pp. 38-45 e 45-54. Specie
da quest'ultimo studio, avendo avuto tra le mani i suoi lavori prima della
pubblicazione fin dal 1991, sono stato indotto a meglio approfondire e
sviluppare alcune argomentazioni di ordine logico, linguistico, psicologico,
biologico e matematico in relazione all'estetica ed alla filosofia.
Da questa impostazione estetico-filosofica,
che almeno tiene conto di alcuni recenti eventi verificatisi nella scienza
e che hanno modificato il pensiero, si puo' passare alla nascita della
vita e della informazione nel mondo secondo la scienza chimico-genetica.
«L'ordine fisico ignoro' l'irreversibilità del tempo
fino al secondo principio della termodinamica. L'ordine cosmico ignoro'
l'irreversibilità del tempo fino al 1965, data in cui l'universo
entro' a far parte del divenire. Fu cosi' liquidata l'eternità
delle Leggi della Natura Non c'é¨ più una physis congelata.
Tutto é nato, tutto é apparso, tutto é sorto, un tempo.
La materia ha una storia» [Cfr. Edgard Morin, Il Metodo, Milano,
Feltrinelli, 1987, p. 111].
Non ci dilungheremo su come i semi della
vita presero forma nello spazio e nell'atmosfera terrestre, secondo la
scienza attuale, le cui combinazioni principali furono quelle del carbonio,
dell'azoto, dell'idrogeno, dell'ossigeno a cui di recente é stato
aggiunto lo zolfo e che «Sotto l'influenza di scariche elettriche,
radiazioni ed altre sorgenti di energia, gli atomi presenti in tali combinazioni
furono rimescolati, producendo amminoacidi e altri mattoni biologici fondamentali.
Portati al suolo dalle piogge e da comete e meteoriti, i prodotti di tali
ricombinazioni chimiche formarono una coltre organica sulla superficie
priva di vita del giovane pianeta». [C. de Duve, Polvere vitale,
Milano, Longanesi, 1995, pp. 48-9]. Quello che a noi interessa é
come il mondo dell'informazione abbia acquisito organismi cosi' complessi
e in che modo si trasmettono e si organizzano le informazioni, nella fisica
del mondo chimico sia negli organismi complessi che in quelli semplici
e come le informazioni passano dall'uno all'altro organismo. Oggi per quanto
riguarda la genesi biologica si pensa che dapprima vi é stata la
costituzione degli amminoacidi, che sono i prodotti più visibili
della chimica abiotica sia sulla Terra che nello spazio. Si sono poi formate
le prime proteine / di cui gli amminoacidi sono componenti / ma sulla centralità
delle proteine nella costituzione degli organismi biologici vi é
già una discussione aperta. La maggioranza degli studiosi
sostiene che prima delle proteine si é assistito allo svilupparsi
dell'acido ribonucleico (RNA), per cui le molecole di RNA forniscono sia
il meccanismo catalitico che quello di informazione. Le recenti ricerche
tendono a porre la nascita dell'RNA prima delle proteine, rifacendosi al
'dogma centrale' di Francis Harry Compton Crik, coscopritore nel 1953 insieme
a James Dewey Watson del DNA (acido desossiribonucleico), il quale postula
che «l'informazione procede solo dagli acidi nucleici alle proteine,
e mai in direzione opposta» [Sta in B. Alberts, D. Bray, J. Lewis,
M. Raff, K. Roberts e J. D. Watson, Biologia molecolare della cellula,
Bologna, Zanichelli, 1995]. Non a caso ci ricorda Christian de Duve, l'importanza
dell'RNA fu successiva, quando si iniziarono a notare alcune proprietà
dell'acido che erano quelle dell'informazione. «Il DNA é il
materiale che forma i nostri geni e, per questa ragione, merita la sua
posizione preminente nel simbolismo della vita. La sua funzione é
pero' strettamente limitata alla memorizzazione di informazione genetica
(e alla replicazione di tale informazione quando una cellula si divide,
cosicché ogni cellula figlia ne possiede una copia). Quando si passa
alla espressione della informazione, il DNA viene invariabilmente trascritto
in RNA. La trascrizione non é molto diversa dalla replicazione in
quanto l'RNA é chimicamente simile al DNA ed é costruito,
tranne che per una singola particolare differenza, con le stesse quattro
basi. L'RNA é una molecola più versatile del DNA. Esso puo'
presentare attività catalitiche, come nei ribozimi, ed esprimere
in tal modo nell'esecuzione di reazioni chimiche l'informazione ricevuta
dal DNA trascritto. Fra queste reazioni alcune modificano le molecole di
RNA e / all'interno di una struttura cellulare complessa, chiamata ribosoma,
composta da RNA e da molecole proteiche / influiscono sull'assemblaggio
di amminoacidi a formare proteine, un processo di primaria importanza in
tutti gli esseri viventi» C. de Duve, Polvere vitale, op. cit., p.
102. Ma c'é ancora di più. I geni dell'RNA, a cui si richiede
la funzione di essere replicabili, assolvono ad un compito di traduzione
di cio' che é trascritto nel DNA e diventano di vitale importanza
per la specie; anzi il DNA, da questa ottica, quale trascrizione genetica,
potrebbe anche estinguersi, ma la perdita più grave sarebbe l'estinzione
di quella forma di traduzione contenuta nella informazione veicolata dall'RNA.
«Tali RNA funzionali esprimono solo un piccolo numero di geni del
DNA. La maggior parte dei geni specificano proteine, le quali attraverso
le loro funzioni strutturali, regolative e specialmente catalitiche (enzimi),
sono gli agenti principali dell'espressione fenotipica. Le cellule, in
generale, e gli organismi che esse servono a costruire, sono l'espressione
delle loro proteine. Le sequenze degli amminoacidi nelle proteine sono
codificate dalle sequenze dei nucleoditi nei geni del DNA, anche se non
direttamente, attraverso le trascrizioni dell'RNA, che sono i 'messaggeri'
dell'informazione in questo processo. Poiché le proteine sono costruite
con un 'alfabeto' di venti amminoacidi, di contro all'alfabeto di soli
quattro nucleotidi dell'RNA (o del DNA), il trasferimento di informazione
dall'RNA alle proteine viene chiamato traduzione. L'insieme delle equivalenze
che governano la traduzione forma il codice genetico». Ibidem. Gli
agenti della informazione-trasmissione genetica sono, pertanto, il DNA,
che detiene selezione e modifica il codice nella sua evoluzione, l'RNA
che é il traduttore e che é compresente negli organismi complessi,
e poi le proteine che sono i ricettori azionanti le informazioni organizzate.
La rete dell'informazione genetica dell'RNA del DNA e delle proteine configurata
é cosi' formulata: DNA ï¬ RNA ï¬ PROTEINE, dove
ï¬ significa implica o causa il passaggio a.
Se «l'informazione si insinuo' nei
processi chimici, e non genero' i processi chimici», dovremmo da
questa congettura apprendere che una materia intelligente, diventa tale
quando si insinua e poi si costituisce un processo di informazione. A me
sembra che proprio in questo modo sono costituiti i frames (agenti intelligenti)
che organizzano le informazioni secondo la psicologia della molteplicità
degli Io di Marvin Minsky. [A tal proposito M. Minsky, La società
della mente, Milano, Adelphi, 1989]. Da questa ottica sembra che l'intelligenza
nasca a livello proteico dalla organizzazione e dalla trasmissione o replicazione
delle informazioni dell'RNA, fino alla costituzione di azioni utili alla
sopravvivenza negli ambienti, secondo la selezione darwinista e la coevoluzione
tra l'organizzazione biologica vivente e l'organizzazione dell'ambiente.
L'Intelligenza Artificiale, al pari dei
principi biologici, postula l'esistenza di 'agenti intelligenti' o 'homuncoli'
o 'folletti' organizzati in moduli. Questi, autonomamente e automaticamente,
si rendono operativi nel momento in cui fanno scattare dei servo-meccanismi
rivelatori di differenze, che riproducono, nonostante che i propri moduli
siano ancora semplici, quanto avviene nel cervello per determinare le funzioni.
Il filosofo Daniel C. Dennett ci soccorre nell'indicare una soluzione tra
le numerose teorie del genere: «Chiamare homuncoli (o folletti o
agenti) le unità di queste teorie molto differenti non é
più informativo che chiamarle semplicemente¦ unità
. Sono solamente unità con competenze particolari e circoscritte,
ed ogni teoria, dalla più rigorosamente neuroanatomica alla più
astrattamente artificiale, non fa altro che postulare tali unità
per poi descrivere come possano essere ottenute delle funzioni più
complesse organizzando le unità che eseguono le funzioni più
semplici. In effetti tutte le varietà di funzionalismo possono
essere considerate come funzionalismo 'omuncolare' in un modo o nell'altro».
Daniel C. Dennett, Coscienza, Milano, Rizzoli, 1993, p. 293.
Da quanto fin qui illustrato si deduce che
il tempo biologico, o dell'evoluzione, é cosi', uno dei due tempi
principali che fondano la nuova physis, l'altro é quello termodinamico
della fisica contemporanea. Da una parte la materia ha una storia con un
suo progresso e ascensione, quello della physis biologica e, dall'altra
c'é un tempo cosmologico, che per il secondo principio di termodinamica
si muove da uno stadio di calore massimo primordiale della materia verso
l'espansione e poi la morte, o freddo termico, della organizzazione cosmica.
Questi due tempi della physis ci viene descritta da Morin in questo modo
«Ora possiamo infine spezzare lo schizoidismo intercorrente tra questi
due tempi che si ignorano e si sfuggono reciprocamente. Essi sono nello
stesso tempo uno, complementari, concorrenti e antagonisti: posseggono
un tronco comune, sono in rapporti di simbiosi, di reciproco parassitismo,
e lottano a morte¦ A questo tempo che é già
molto complesso, ci occorrerà integrare , quando esamineremo
il problema dell'organizzazione, il tempo delle reiterazioni, delle ripetizioni,
degli anelli, dei cicli, delle riprese, e vedremo come questi tempi ripetitivi
sono alimentati e contaminati dal tempo irreversibile , allo stesso modo
in cui sono perturbati dal tempo insieme di eventi: il loro movimento é
sempre a forma di spirale e sempre soggetto al rischio di rottura¦
Il grande tempo del Divenire é sincretico (E' questo cio' che le
grandi filosofie del divenire avevano ignorato, a partire da quella più
grande, quella di Hegel). Esso mischia in sé, in maniera diversa,
questi diversi tempi nei suoi flussi e nei suoi grovigli, con isole temporanee
di immobilizzazione (cristallizzazione) dei vortici e cicli di tempi reiterativi.
La complessità del tempo reale sta in questo ricco sincretismo.
Tutti questi diversi tempi sono presenti, agiscono ed interferiscono nell'essere
vivente e beninteso nell'uomo: ogni vivente, ogni uomo porta in sé
il tempo dell'evento/accidente/catastrofe (la nascita, la morte), il tempo
della disintegrazione (la senescenza che, attraverso la morte, conduce
alla disintegrazione), il tempo dello sviluppo organizzativo (l'ontogenesi
dell'individuo) il tempo della reiterazione (la ripetizione quotidiana,
stagionale, dei cicli, dei ritmi e delle attività ), il tempo della
stabilizzazione (omeostasi). In maniera raffinata, il tempo catastrofico
e il tempo della disintegrazione vengono a far parte del ciclo reiterativo,
ordinato/organizzatore (le nascite e le morti sono costitutive del ciclo
di ripresa di riproduzione). E tutti questi tempi entrano a far parte della
emorragia irreversibile del cosmo. Cosi', sin dall'inizio, il nuovo universo
fa sorgere non soltanto il tempo irreversibile, ma il tempo complesso».
Edgard Morin, Il Metodo, op. cit., pp. 111-2.
[4] Fino a
qualche tempo fa gli «scienziati» non leggevano opere umanistiche
e gli «umanisti» si precludevano ogni forma di bellezza matematica.
Solo quando il concetto di instabilità é entrato nella
matematica essa ha prodotto un rinnovato interesse per gli umanisti. L'introdurre
il tempo come forma di congiunzione tra queste due culture, quella umanistica
e quella matematica, ha prodotto un progresso immenso. Il tempo, in effetti,
é la nostra dimensione esistenziale cardine, in quanto attraverso
di esso si dispiega la creatività degli artisti, dei filosofi
e degli scienziati. Solo quando il tempo é entrato a far parte della
scienza cosiddetta «classica» che questo avvicinamento é
stato possibile. Si é introdotto il concetto della freccia del tempo,
attraverso cui si ipotizza che il tempo crea strutture e che induce molti
scienziati ad ipotizzare contemporaneamente oltre alla irreversibilità
anche la complessità del tempo stesso. Questa evoluzione della
scienza basata sulla irreversibilità -complessità del
tempo, conosciuta anche come paradosso del tempo, si é avuta in
base a due sviluppi. Il primo ottenuto con la scoperta delle strutture
di non-equilibrio, dette anche «dissipative», ed il secondo
é stato legato alla nuova evoluzione della dinamica classica, che
induce a riflettere sugli sviluppi imprevedibili della scienza. Questi
passaggi si ottengono in base ad una analisi evolutiva della succesione
degli eventi caratterizzanti i sistemi dinamici instabili: instabilità
ï¬ caos ï¬ probabilità ï¬ irreversibilità
. Centrare il discorso sugli «operatori di evoluzione» ci permette
di unificare in fisica la dinamica e la termodinamica «Cominciamo
ad afferrare meglio la lezione del secondo principio di termodinamica.
Perché esiste l'entropia? Prima spesso si ammetteva che l'entropia
non era altro che l'espressione di una fenomenologia di approssimazioni
supplementari che introduciamo nella legge della dinamica. Oggi sappiamo
che la legge di sviluppo dell'entropia e la fisica di non-equilibrio ci
insegnano qualcosa di fondamentale circa la struttura dell'universo: l'irreversibilità
diventa un elemento essenziale per la nostra descrizione dell'universo,
quindi deve trovare la sua espressione nelle leggi fondamentali della dinamica.
La condizione essenziale é che la descrizione microscopica dell'universo
si faccia tramite dei sistemi dinamici instabili. Ecco un radicale cambiamento
del punto di vista: per la visione classica i sistemi stabili erano la
regola e i sistemi instabili delle eccezioni, mentre oggi capovolgiamo
la prospettiva. Una volta ottenuta l'irreversibilità e la
freccia del tempo, possiamo studiare tale freccia su altre rotture di simmetrie
e sul contemporaneo emerge dell'ordine e del disordine a livello macroscopico.
Comunque in entrambi i casi é dal caos che emergono allo stesso
tempo ordine e disordine. Se la descrizione fondamentale si facesse con
leggi dinamiche stabili, non avremmo entropia, ma quindi neppure coerenza
dovuta al non-equilibrio, né alcuna possibilità di
parlare di strutture biologiche e pertanto un universo da cui l'uomo sarebbe
escluso. L'instabilità , ovvero il caos, ha cosi' due funzioni fondamentali:
da un lato l'unificazione delle descrizioni microscopiche e macroscopiche
della natura, attuabile solo tramite una modificazione della descrizione
microscopica; dall'altro la formulazione di una teoria quantistica, direttamente
basata sulla nozione di probabilità , che evita il dualismo della
teoria quantistica ortodossa, ma che, a un livello ancor più generale,
ci induce cosi' a modificare quelle che tradizionalmente chiamavamo 'leggi
della natura'». Ilya Prigogine, Le leggi del caos, Roma-Bari, Editori,
Laterza, 1993, pp. 79-80. [Basato su questo principio, e in chiave romanzata,
si veda il racconto quasi profetico di Isaac Asimov, L'ultima domanda,
sta in Tutti i racconti, Milano, Mondadori, 1991, vol. I, pp; 339-51. Il
protagonista é un mega-computer che é direttamente legato
allo spazio-tempo a cui é stata posta una domanda da un popolo tecnologicamente
avanzato e cioé se fosse stato possibile superare il secondo principio
della termodinamica. Questo da generazione in generazione da civiltà
in civiltà replica costantemente «dati insufficienti
per una risposta significativa» fino a quando dopo la morte dell'universo
il computer ottiene la risposta e ne nasce un nuovo mondo].
Il rapporto tra le due culture che richiamavano
il dualismo sia della struttura che dell'ambiente é stato espresso
nella scienza classica da Cartesio. In una delle Risposte alle terze obbiezioni,
ovvero quella alla seconda obbiezione, e precisamente quella relativa alla
seconda meditazione intitolata Della natura dello spirito umano, egli replica
a Hobbes col distinguere due sostanze, il corpo e lo spirito, che derivano
dagli atti e dagli accidenti che sono di loro proprietà : «Vi
sono certi atti, che chiamiamo corporei, come la grandezza, la figura,
il movimento, e tutte le altre cose che non possono essere concepite senza
un'estensione locale, e noi chiamiamo col nome di corpo la sostanza nella
quale risiendono; […] tutti questi atti convengono
fra di loro, in quanto presuppongono l'estensione. In appresso, vi sono
altri atti che noi chiamiamo intellettuali, come intendere, volere, immaginare,
sentire, ecc., i quali tutti convengono fra loro in questo, che non possono
essere senza pensiero o percezione, o coscienza e conoscenza; e la sostanza
nella quale essi risiedono, noi diciamo che é una cosa che pensa,
o uno spirito […]; il pensiero, che é la ragione
comune nella quale essi convengono, differisce totalmente dall'estensione,
che é la ragione comune degli altri» [Cartesio, Obbiezioni
e risposte [1641]. Terze obbiezioni, sta in Opere filosofiche, vol. II,
Laterza, Roma-Bari, 19902, vol. II, pp. 166 e segg.] Ma ecco cio' che ci
dice Prigogine su questa opera: «In quest'opera Cartesio descrive
l'evidente contrasto tra i primi oggetti della scienza e la fisica che
allora sorgeva (come per esempio il pendolo e il sasso che cade) e gli
atti intellettuali. La materia é associata all'estensione, insomma
a una geometria. E' noto che cio' costrui' l'idea centrale dell'opera di
Einstein, ovvero l'idea di accedere a una descrizione geometrica della
fisica. Al contrario gli atti intellettuali sono associati al pensiero
e il pensiero é indissociabile dalla distinzione tra 'passato' e
'futuro', quindi dalla freccia del tempo. Il paradosso del tempo esprime
una forma del dualismo cartesiano. Recentemente é stato pubblicato
un libro molto interessante di un eminente fisico matematico inglese, Roger
Penrose, dal titolo La nuova mente dell'imperatore. In esso leggiamo l'affermazione
secondo la quale sarebbe â€la nostra attuale mancanza di comprensioni
delle leggi fondamentali della fisica a impedirci di comprendere il concetto
di 'mente' in termini fisici o logici». Ilya Prigogine, Le leggi
del caos, op. cit., pp. 81-2.
[5] Il filosofo
Hubert Dreyfus afferma che «Si potrebbe a ragione far cominciare
la storia dell'intelligenza artificiale intorno al 450 a.C.» [L'Eutifrone
descrive gli eventi poco prima del processo di Socrate nel 399 a. C., Dreyfus
si é chiaramente confuso nel collocarlo 51 anni prima (G.S.)] quando
Platone riferisce un dialogo nel quale Socrate chiede a Eutifrone «Voglio
sapere cos'é caratteristico della pietà che rende tutte
le azioni pie ¦ in modo che possa averla per cominciare a lavorare
e per usarlo come modello con cui giudicare le tue azioni e quelle degli
altri uomini». [Nella traduzione del passo vi sono altre edizioni
che utilizzano 'virtù/virtuoso invece di pietà/pio]. H. Dreyfus,
What Computers Canât do: The limits of Artificial Intelligence, (Revised
edizione), New York, Harper and Row, 1979, p. 67. Socrate, in effetti,
voleva conoscere da Eutifrone un algoritmo che gli permettesse di distinguere
la pietà dalla non pietà . Aristotele formulo' le leggi
che regolavano la parte razionale della mente. Egli sviluppo un sistema
di informazione basato sui sillogismi, in modo che postulati dei principi
generali, meccanicamente, si giungeva a delle conclusioni. Aristotele,
inoltre, non reputava che tutte le parti della mente fossero strutturate
su processi logici, poiché aveva formulato anche la nozione di ragione
intuitiva. Con Cartesio (1596-1650) si inizio' a considerare la mente come
un sistema fisico. Nonostante che fosse un grande sostenitore del ragionamento
egli propose un dualismo, ovvero, oltre alla parte della mente che obbedisce
alle leggi della natura, vi é un'altra mente, che é al di
fuori della natura e non obbedisce a leggi fisiche e questa é l'anima.
Un'alternativa al dualismo é il materialismo-mentalismo, seppure
spirituale, di Leibniz. Egli sosteneva che tutto il mondo compreso la mente
ed il cervello operano secondo una legge della fisica. Wilhelm Leibniz
(1646-1716)é¨ oggi in auge tra i sostenitori dell'intelligenza
artificiale per essere stato il primo ad aver portato il combinatorio atomistico
di Democrito ad una conclusione logica e a costruire un meccanismo automatico
di pensiero, nonostante i forvianti 'possibili', per eseguire operazioni
mentali. L'apparato logico, cosi'come strutturato da questo autore, valeva
per operazioni semplici ma non funzionava su calcoli complessi. Per ricostruire
i passi di una filosofia delle operazioni mentali e dei meccanismi della
mente, dopo aver stabilito che la mente fosse un apparato fisio-logico,
abbiamo bisogno di comprendere come si costruisce il ragionamento attraverso
le conoscenze che in quella mente sono contenute e che tipo di rapporto
si instaura tra esperienza e conoscenza. L'indagine sulla individuazione
della origine e sulla definizione della conoscenza era iniziata nel mondo
moderno con il Novum Organon di Francesco Bacone (1561-1626). L'empirismo
si divulgo' e pose le sue basi, trovando la sua massima espressione nella
celeberrima affermazione di John Looke (1632-1704) «non c'é
nulla nella comprensione che non sia prima nei sensi». Con questa
affermazione si divulgo', anche nel processo scientifico, oltre che nei
meccanismi logici, il principio di induzione, dove alcune regole generali
vengono ricavate dalla osservazione di alcune frequenze che si ripetono
nei rapporti tra gli elementi osservati. Dopo quasi due secoli fu Bertrand
Russell (1872- 1970) con il positivismo logico che diede un formalismo
più accentuato a queste teorie. L'intenzione di Russell era quella
di escludere dal ragionamento gran parte della metafisica. Il suo sistema
della conoscenza é caratterizzato da teorie logiche, che possono
essere verificate o falsificate analizzando il significato delle parole
oppure facendo esperimenti, collegate a frasi di osservazione che trovano
la propria corrispondenza negli stimoli sensoriali. La teoria della conferma
impostata da Rudolf Carnap (1891-1970) attraverso la sintassi logica, trova
il suo impianto sulle relazioni linguistiche e sulle osservazioni delle
esperienze.
Questa teoria, poi sviluppata da Carl Hempel (1905-1989), ebbe il compito
di mostrare come le teorie della conoscenza nascono sulla base di esperienze
e verifiche di esse, inducendo a modificare vecchie convinzioni e ad acquisire
con nuove teorie i metodi empirici osservati e verificati con l'esperienza.
Karl Popper (1902-1995) con la sua posizione euristica del principio di
transizione secondo cui «cio' che é vero in logica é
vero anche in psicologia» [cfr. Conoscenza oggettiva. Un punto di
vista evoluzionistico, Roma, 1975, p. 24,] afferma che la conoscenza non
ha fonti prime o «originarie», anzi l'errore di fondo di questa
impostazione «consiste nel fatto che essa non distingue con sufficiente
chiarezza tra questione di origine e questione di validità»
[cfr. Congetture e confutazioni, Bologna, il Mulino, 1972, p. 48]. L'idea
di Popper é che la conoscenza umana non é fondata sull'episteme,
ovvero sapere certo, ma sulla doxa, sapere congetturale e che noi non siamo
possessori della verità , ma ricercatori di verità) . Da
questa ottica Popper vede quasi tutte le filosofie finora formulate come
filosofie giustificazioniste. Egli nota inoltre che «la scienza naturale
non é scientia o episteme; non comunque perché sia una tecne,
ma perché appartiene al dominio della doxa» [Congetture e
confutazioni, op. cit., p. 642] Quanto affermato comporta che un termine
ha significato solo se designa una percezione a cui riferirlo e una serie
di fenomeni organizzati e osservati con cui spiegarlo. Lo strumentalismo
logico della previsione e del calcolo matematico ha una lunga tradizione.
Questa ottica ci introduce nelle previsioni degli accadimenti fenomenici.
A questo punto, pero', bisogna anche connettere
la mente all'azione per un esame sia della cibernetica che per stabilire
connessione tra mente e azione (tecnologia), che tratteremo in seguito.
Questa connessione ha bisogno di una ideale forma (simbolo, rappresentazione,
ecc.) ma anche di una forma organizzata che produca azioni particolari
da essere poi giustificate. Infatti l'Intelligenza Artificiale si basa
proprio sulla comprensione di come vengono giustificate delle azioni per
poi riprodurre un agente 'artificiale' le cui azioni siano giustificabili
o razionali. Si ricorre di nuovo ad Aristotele. Nell'Etica Nicomachea Libro
III, 3, 1112b, Aristotele tratta dei fini e dei mezzi. «Non deliberiamo
sui fini, ma sui mezzi. Poiché un dottore non delibera se guarirà
, né un oratore se persuaderà , né uno statista se
stabilirà legge e disciplina e nessuno delibera sui propri
fini. Essi assumono il fine e considerano come e con quali mezzi venga
ottenuto, e se sembra prodotto meglio e più facilmente in tal modo;
mentre se é raggiunto soltanto attraverso un mezzo essi considerano
come il fine sarà raggiunto da questo e attraverso quale mezzo
si possa raggiungere questo, fino ad arrivare alla causa prima, che é
ultima nell'ordine delle scoperte ¦ e cio' che é ultimo nell'ordine
dell'analisi sembra essere primo nell'ordine del divenire. E se perveniamo
ad una impossibilità , abbandoniamo la ricerca, ad esempio quando
abbiamo bisogno di denaro che non possiamo ottenere; ma se una cosa appare
possibile cerchiamo di farla». Questa analisi dei mezzi e dei fini
é utile ma non nel decidere come operare quando ci si imbatte in
più azioni che permettono di raggiungere lo stesso scopo o, anche
quando non é possibile alcuna azione che permetterà
di raggiungere quello scopo. Arnauld (1612-1694), seguace di Cartesio,
previde la funzione di utilità dei testi scientifici attuali,
nonostante che egli applicasse questa regola al bene e al male. Nella Logica
di Port-Royal, [La logique, ou l'art de penser] scritta nel 1662, insieme
con Pierre Nicole (1625-1695), un altro dei portorealisti, egli affermo'
che «Per giudicare quello che bisogna fare per ottenere un bene o
evitare un male é necessario considerare non solo il bene ed il
male di per sé, ma anche la probabilità che accada
o non accada; inoltre é necessario vedere geometricamente la proporzione
che tutte queste cose hanno nell'insieme». John Stuart Mill (1806-1873)
propose di usare la migliore ipotesi corrente e di adattarla ogni volta
che si presentano nuove circostanze alfine di mantenerne la sua validità
. Il suo libro Utilitarianism, London, Parke, Son and Bourn, 1863, (commentato
in R. P. Anschutz, The Philosophy of J. S. Mill, Oxford, 1953,) amplia
l'idea di Arnauld. Quanto era stato proposto da Aristotele nella sua Etica
Nicomachea fu realizzato con il progamma denominato GPS da Newell e Simons
[A. Newell e H. A. Simons, Human problem Solving, Prentice-Hall, Englewood
Cliffs, New Jeresey, 1972]. Questi cosi' hanno affermato riferendosi al
loro programma: «I metodi principali di GPS, nell'insieme, rappresentano
l'euristica dell'analisi mezzi-fini. L'analisi mezzi-fini é un tipico
esempio del seguente tipo di argomento di senso comune: 'Voglio portare
mio figlio all'asilo. Qual é la differenza tra cio' che ho e cio'
che voglio? La distanza. Cosa cambia la distanza? La mia automobile. La
mia automobile non funziona. Di cosa ha bisogno per funzionare? Una batteria
nuova. Chi ha batterie nuove? Un'officina meccanica. Voglio che il meccanico
sostituisca una batteria nuova; ma il meccanico non sa che ne ho bisogno.
Qual é la difficoltà ? La comunicazione. Che cosa permette
la comunicazione? Un telefono ¦ e cosi' via. Questo tipo di analisi
a classificare le cose in termini di funzione a cui servono ed oscillare
tra i fini, le funzioni richieste e i mezzi che producono forma il sistema
base dell'euristica di GPS» (pp. 75-6). Si sono tralasciati qui volutamente
gli sviluppi fenomenologici, strutturalisti ermeneutici dell'analisi e
dell'organizzazione. Essi meriterebbero una nota particolare, per ora possono
rientrare come metodo nell'arte dell'euristica, o della ricerca, del comporsi
delle forme nelle strutture percettivo-formali; non a caso, nell'ottica
dell'Intelligenza Artificiale, tutte queste discipline della ricerca filosofica
tendono ad evidenziare riduttivamente le funzioni e l'applicazione
di un sistema conoscitivo, cosi' come poi «semplificato» e
«riprodotto» da Newell e Simons nel proprio programma GPS.
[6] Non sembra
il caso di redigere una breve storia sulla matematica, ma si rimada il
lettore ad un breviario esauriente che ripercorre le evoluzioni concettuali
e simboliche di questa scienza. Cfr. Bruno Iaccarino, La storia dei segni
matematici, Napoli, ESI, 1995. Pur non avendo alcun riferimento col mondo
circostante, ad eccezione dei numeri, questa scienza nacque per valutare
e individuare gli scambi nonché le modifiche fisiche che questi
recavano. La matematica non disperde le proprie scoperte ma le conserva
per altre possibili scoperte future. Non a caso la matematica utilizza
tre sistemi per esprimere i propri risultati, spesso questi metodi descrittivi
sono combinati tra loro. «Il primo ed anche il più antico
modo di rappresentare la scienza matematica é stato il linguaggio
verbale arricchito di eccezioni e di vocaboli utilizzati o creati solo
per la matematica. Un esempio di questo tipo é l'enunciato del teorema
babilonese attribuito a Pitagora la cui scoperta risale al primo millennio
a. C. e che si é perpetuato verbalmente fino al medioevo».
Ibidem, p.20. «Il secondo sistema di comunicazione matematica parallelo
per antichità al discorso verbale, utilizza il simbolismo.
Si tratta di un insieme di segni convenzionali che sono stati inventati
nel tempo per esprimere, sinteticamente ed in modo preciso, determinati
tipi di operazioni». Ibidem, p.23. «Il terzo sistema di comunicazione
matematica utilizza figure grafiche per trasmettere vari tipi di informazioni
perché attraverso l'immagine queste informazioni appaiono più
immediate e comprensibili anche ai non addetti ai lavori. Questi ultimi
nel ricevere il linguaggio grafico associano inconsciamente il rigore formale
di tipo matematico a questo tipo di rappresentazione».Ibidem, pp.
24-5. A questo si aggiunga anche un ulteriore sviluppo della matematica
attraverso i computer. In una prima fase gli elaboratori venivano impiegati
principalmente a calcolare le soluzioni di particolari equazioni, poi sono
stati utilizati a elaborare anche simulazioni attraverso la grafica. Oggi
elaborano, grazie alla AI, oltre che le strutture logiche anche le strutture
decisionali in base al ragionamento probabilistico.
I simboli matematici, fin dalla loro nascita,
sono serviti, una volta entrati nell'uso comune, «per individuare
e riconoscere una operazione da sviluppare o un comando da eseguire. Infatti
lo scopo della notazione incorpora sempre un meccanismo operazionale che
per il suo automatismo si chiama algoritmo. Un'aspirazione per l'inventore
di questo termine, Al-Khuwarizmi, [su altri testi abbiamo trovato chiamato,
forse più correttamente, al-Khowarazmi, (G.S.)] che a suo tempo
uso' le parole 'algoritmo dicita' per i soli simboli che servivano allo
svolgimento delle quattro operazioni aritmetiche sui numeri posizionali.
Allora 'algoritmo' era una parola quasi magica, come era costume della
cultura araba che aveva dato corpo a tante favole come la 'lampada di Aladino'.
Molto tempo dopo, invece, il termine algoritmo assunse legittimamente il
significato che oggi gli si attribuisce. L'uso della parola fu generalizzato
sino a diventare una realtà per tutti i campi delle scienze.
Attualmente sta a significare, in generale, una funzione o un insieme di
funzioni, anche molto complesse, che hanno capacità risolutiva
automatica». [il corsivo é mio, ed é mio anche quanto
viene rinvenuto in parentesi e con la sigla G.S.] Ibidem, p. 165.
Tre sono gli elementi fondanti lo sviluppo
matematico, da una parte la logica, dall'altro il calcolo e ancora la probabilità
ed infine con la cibernetica e l'avvento dei computer dell'Intelligenza
Artificiale si é passati all'azione, dando alla matematica anche
una funzione pratico-combinatoria come strumento decisionale prima per
operazioni simulative e poi anche nella vita pratica.
La logica di Aristotele, rimase materia
filosofica fino a quando George Boole (1815-1864) nel 1847 [The Matematical
Analysis of Logic: Being an Assay towards a Calculus of Deductive Reasoning]
vi appose il suo linguaggio formale per determinare le proprie inferenze
logiche. Gottlob Frege (1848-1925) nel 1879 [Begriffsscrift eine der arithmetischen
nachgebildete Formel sprache des reinene Denkens, ristampato e tradotto
in inglese nel 1967] vi appose le sue deduzioni e su cui si é poi
fondata la logica del primo ordine, oggi comunemente usata come il più
importante sistema per rappresentare la conoscenza. Alfred Tarski (1902-1983)
introdusse un sistema teoretico che correla gli oggetti di logica con gli
oggetti del mondo reale. David Hilbert (1848-1924), che oltre a presentare
una lista dei 23 problemi che avrebbe appassionato i matematici di questo
secolo che si sta chiudendo, si soffermo' a studiare l'Entscheidungsproblem
o il problema della decisione: ovvero se esiste un algoritmo che possa
decidere la verità di ogni proposizione logica che riguarda
i numeri naturali. Il più grande matematico di questo secolo Kurt
Godel (1906-1978) nel 1930 [Ãber die Vollständigkeit
des Logikkalküls] dimostro' che esisteva una procedura valida
per dimostrare le proposizioni di primo ordine di Frege e Russell; ma questa
logica di primo ordine, pero', non poteva dare alcun fondamento al principio
di induzione matematica necessario a sua volta per caratterizzare i numeri
naturali. Nel 1931 in un articolo [Cfr. On Formally Undecidable proposizion,
New York, Basic Books, 1962, che é la traduzione inglese dell'articolo
di GODEL del 1931 insieme ad una sua discussione mentre l'originale ha
il titolo Ãber Formal Unentscheidbare Sätze der
Principia Mathematica und Verwandter Systeme, I in Monatshefte für
Mathematik und Physik 38, (1931), pp. 173-198] egli mostro' i limiti reali
di tale impossibilità . [A tal proposito si veda il famosissimo
libro tra arte, filosofia, biologia, logica, AI e matematica di Douglas
R. Hofstadter, Gödel, Esher, Bach: un'Eterna Ghirlanda Brillante,
Milano, Adelphi, 1990 dove il teorema di Godel diventa nesso di congiunzione
genetico per l'evoluzione dei problemi di matematica, di logica, di filosofia,
di AI, di arti visive e di composizione musicale. Si veda specie pp. 741-780].
Il teorema di incompletezza di GÖDEL dimostra che in un qualsiasi
linguaggio che esprime le relazioni dei numeri naturali si riscontrano
sempre delle affermazioni vere che sono indecidibili, per cui non si puo'
sottoporre ad alcun algoritmo la loro verità . Il risultato di questa
dimostrazione indusse Alan Turing (1912-1954) a cercare, dal momento che
GODEL aveva dimostrato che ci sono alcune funzioni dei numeri interi che
non possono essere calcolate, quali sono le funzioni che possono, invece,
essere sottoposte a calcolo. Cosi' nel 1936 si giunse alla macchina di
Turing che é in grado di calcolare qualsiasi funzione calcolabile
[On computable numbers, with an application to the Entscheidungsproblems
in Procedings of the London Mathematical Society, 2nd series, 4", pp. 230-265.
Correzione pubblicata nel vol. 43, pages 544-546]. Egli ha inoltre dimostrato
che c'erano delle funzioni che nessuna macchina di Turing puo' essere in
grado di calcolare. Una di queste, ad esempio, é come nessuna macchina
puo' dire in generale se un programma possa o meno dare una risposta ad
uno stimolo oppure continuerà le proprie elaborazioni all'infinito.
Accanto alla indecidibilità e alla non calcolabilità
per comprendere una computazione matematica vi sono le nozioni della intrattabilità
e di riduzione. Entrambe derivano dalla teoria della complessità
. Generalmente é giudicato intrattabile una classe di problemi se
il tempo richiesto per risolvere il problema di detta classe sia in crescita
almeno esponenziale con la dimensione delle istanze. Questa crescita esponenziale
secondo A. Cobham [The intrinsic computational difficulty of functions,
sta in Y. Bar-Hillel (a cura di) Proceedings of the 1964 International
Congress for Logic, Metodology and Philosophy of Science, Elsevier/North-Holland,
1964, pp. 24-30] e J. Edmonds [Paths, trees and flowers, sta in Canadian
Journal of Mathematics, 17, 1965, pp. 449-467] rivelano che un problema
non è risolvibile in un tempo ragionevole neanche se si tratta
di un problema di dimensioni modeste. L'altro problema anch'esso degli
anni '60 é quello di riduzione trattato da G. B. Dantzing [On the
significance of solving linear programming problems with some integer variables,
sta in Econometrica, 28, 1960, pp. 30-44] e J. Edmonds [Covers and packings
in a family of sets, sta in Bulletin of the American Mathematical Society,
68, 1962, pp. 449-469]. La riduzione viene presentata come una trasformazione
generale da una classe di problemi ad un'altra classe di problemi. Con
questo passaggio si possono circoscrivere i problemi e trovare la soluzione
di questa classe ridotta dei problemi e per transizione poi risolvere anche
quelli della prima classe. Il riconoscimento di un problema intrattabile
viene affrontato secondo la teoria della NP-completezza cominciata da Steven
A. Cook [The complexity of theoremproving procedures, sta in Procedings
of the 3rd Annual ACM Symposium on Theory of Computing, New-York, 1971]
e Richard M. Karp [Reducibility among combinatorial problems, sta in R.
E. Miller e J. W. Thatcher (a cura di), Complexity of Computer Computations,
New York, Plenum, 1972, pp. 85-103]. Loro forniscono un metodo per riconoscere
un problema intrattabile. Non a caso ogni classe di problemi trattabili
a cui puo' essere ridotto una classe NP-completi é probabile che
quelle per classi di problemi che si verifica cio' siano intrattabili.
Un altro grande contributo alla matematica
é venuto, infine, dalla teoria della probabilità .
Gerolamo Cardano (1501-1576) per primo introdusse
nel moderno [Liber de ludo aleae] l'idea di probabilià , questa
fu impiegata come pronostico di un possibile risultato ed adibita al calcolo
degli eventi di giochi, divenendo in seguito un altro elemento chiave per
l'evoluzione della matematica. Da allora Pierre Fermant (1601-1665), Blaise
Pascal (1623-1662), James Bernoulli (1654-1705), Thomas Bayes (1702-1761)
Pierre Laplace (1749-1827) e tanti altri diedero il loro apporto trovando
nuovi metodi statistici e facendo progredire questa teoria.
In conclusione logica, calcolo e teoria
delle probabilità sono a fondamento della nuova matematica
che porta all'azione attraverso la AI.
[7] Mi riferisco
principalmente alla psicologia scientifica iniziata dal fisico tedesco
Hermann von Helmholtz (1821-1894) ed il suo allievo Wilhem Wundt (1832-1920)
e ai contributi sulle soglie di percezioni (o riconoscimento degli stimoli)
relazionate alle azioni risultanti (risposte) da quei processi mentali
facilmente rilevabili, o di carattere oggettivo, sviluppato dal comportamentismo
di John Watson (1878-1958) e Edward Lee Thorndike (1874-1949) in auge dal
1920 al 1960 negli Stati Uniti d'America. La psicologia cognitiva, che
tratta il cervello come centro di elaborazioni di informazioni, almeno
fino ai lavori di William James (1842-1910), perde la sua funzione di centralità
a partire dal comportamentismo di Craik [cfr. Kenneth J. W. Craik, The
Nature of Explanation, Cambridge, University Press, 1943]. Egli introdusse
altri elementi ai componenti automatici intercorrenti tra lo stimolo e
la risposta, osservando sia il mondo naturale che quello umano, o mentale.
Nella conoscenza egli individuo' tre passi chiavi di un agente. Da una
parte vi é lo stimolo che produce una rappresentazione interna;
successivamente questa rappresentazione viene manipolata da processi cognitivi
e si confronta con le rappresentazioni interne e le previsioni di azioni;
infine questa configurazione di rappresentazioni viene riconvertita in
decisione e quindi azione. Dal 1960 in poi la psicologia scientifica, specie
negli Stati Uniti ed in Inghilterra, si é concentrata sulla elaborazione
delle informazioni. La conoscenza sviluppata dalla psicologia scientifica
é una delle basi su cui si fonda la AI. La coscienza é il
centro di questo problema. In che modo si sente?, o, in che modo
si produce il sentire? Gli studi attuali della neurobiologia e della AI
si sono centrati su tre problemi importanti che implicano sia il mondo
della filosofia, sia quello dell'arte che quello dell'azione: ovvero «aiutare
a capire il diversissimo impatto biologico di tre fenomeni distinti, seppure
strettamente collegati: un'emozione, il sentire quell'emozione e il sapere
di sentire quell'emozione». Antonio R. Damasio, Emozione e coscienza,
Milano, Adelphi, 2000, p. 21. I principali filosofi che in questi anni
si sono soffermati su questo problema con una visione neurobiologica sono
Edgard Morin, Daniel Dennett, Paul e Patricia Churchland, Thomas Nagel,
Colin McGinn e John Searle nonché alcuni neuroscienziati come Gerald
Edelman e Francis Crick.
[8] Cfr. B.
F. Skinner, Science and Human Behavior, London, Mcmillan, 1953, e il suoVerbal
behavior, London, 1957
[9] Cfr. Norman
Avram Chomsky, Syntactic Structures, The Auge and Paris, Mouton, 1957,
in italiano vedere specie i tre volumi dei suoi Saggi: Saggi Linguistici,
I L'analisi formale del linguaggio, Torino, Boringhieri, 1969, Saggi Linguistici,
II, La grammatica generativa trasformazionale, Torino, Boringhieri, 1969,
Saggi Linguistici, III , Filosofia del linguaggio: ricerche teoriche e
storiche, Torino, Boringhieri, 1969.
[10] Gli sviluppi
degli studi sulla linguistica si sono poi indirizzati sulla rappresentazione
della conoscenza. In essa sono confluiti sia gli studi ispirati dalla ricerca
linguistica, sia quelli ad essa collegata, ovvero quella dell'analisi filosofica
del linguaggio. Questi studi sono stati utilizzati non per sviluppare teorie
ma sistemi tradotti in funzioni matematico-operative. Attraverso questi
studi si penso' come rendere operativo un modo di ragionare, ovvero si
desidero' costruire un calcolatore che non solo ragionasse, ovvero aprisse
quei canali di sistemi operativi e confusionisti di informazioni, ma lo
facesse anche funzionare. In tal senso molti autori fanno nascere la linguistica
moderna e l'Intelligenza Artificiale nello stesso momento: «per cui
la linguistica non ricopre un ruolo fondamentale nella crescita dell'AI.
Le due discipline, anzi, sono cresciute insieme, intersecandosi in un campo
ibrido chiamato linguistica computazionale o elaborazione del linguaggio
naturale, che si concentra sul problema dell'uso del linguaggio».
Stuart J. Russell e Peter Norvig, Intelligenza Artificiale, Torino, UTET,
1998, p. 17.
[11] La nascita
dell'Intelligenza Artificiale di solito si fa risalire ad un articolo di
McCulloch e Pitts del 1943 [W.S. McCulloch e W. Pitts, A Logical calculus
of the ideas immanent in nervous activity, sta in Bullettin of Mathematical
Biophysics, 5, 1943, pp. 115-137]. Questi autori, nella loro formulazione
si avvalsero di fonti diverse: le ricerche sulla conoscenza fisiologica
e sulle funzioni dei neuroni nel cervello, connesse all'analisi della logica
proposizionale dovuta a Russell e Withead e a Russell e, infine, la teoria
della calcolabilità di Turing. McCulloch e Pitts, «proposero
un modello di neuroni artificiali nel quale ciascun neurone é caratterizzato
dall'essere 'acceso' o 'spento', con un cambiamento nello stato 'acceso'
che si verifica in risposta allo stimolo di un numero sufficiente di neuroni
vicini. Lo stato di un neurone era concepito come 'di fatto equivalente
ad una proposizione che proponesse il suo stimolo adeguato'. Mostrarono,
per esempio, che ogni funzione calcolabile poteva essere calcolata da qualche
rete di neuroni connessi e che tutti i connettivi logici potevano essere
realizzati attraverso semplici strutture di rete. McCulloch e Pitts suggerirono,
inoltre, che reti opportunamente definite potevano apprendere» Stuart
J. Russell e Peter Norvig, Intelligenza Artificiale, op. cit., p. 17. Da
qui in poi si sviluppa lo studio e la costruzione di macchine in base ai
canoni dell'intelligenza artificiale. Macchine che apprendevano meccanismi
e aprivano reti che producevano lavoro e oggi informazioni.
Nel redigere questa e alcune delle precedenti
note (n° 5, 6, 7,) mi sono lasciato indirizzare in molti passaggi,
da quella tracciata nel grande volume tecnico-opeativo volto più
alla costruzione vera e propria di programmi operativi per la intelligenza
artificiale di Stuart J. Russell e Peter Norvig, Intelligenza Artificiale,
op. cit., con l'aggiunta di altri autori che di volta in volta ritenevo
opportuni. Si noti, inoltre, l'area di ricerca che é «complessa»
di noi studiosi non solo della genesi e della teleologia della «materia»
organizzata, in base alle attuali scoperte delle scienze matematiche fische
e genetiche, ma anche delle diverse formazioni/organizzazioni delle informazioni/cognizioni
nei segmenti della freccia temporale attraverso l'operatività
della mente, i cui studi confluiscono nella cibernetica, definita da molti,
riduttivamente, come filosofia della mente: Essa fa spaziare dalla critica
letteraria e dalle arti, alla psicologia alla filososfia alla linguistica
alla sociologia alle scienze cognitive fino alla neotecnologie dell'intelligenza
artificiale, collazionando i paradigmi operativo-evolutivi di tutte le
scienze e delle neuroscienze presenti in questo nostro processo cognitivo
che si propone di organizzare informazioni attraverso il «sentire»,
il produrre e l'operare nell'hic et nunc di questa dimensione della freccia
dell'espansione temporale. A tal proposito si rimanda al testo storico,
dall'approccio specificamente filosofico, di William Bechtel, Filosofia
della mente, Bologna, il Mulino, 1999, mentre molto più profonda
e chiara é l'esplicazione della nuova filosofia genetico-cognitiva
da Edgard Morin. [Cfr. per una introduzione a tale visione almeno, oltre
al testo già citato di Edgard Morin, Il Metodo, op. cit.,
anche ID. La vita della vita, Milano, Feltrinelli, 1987, e ID. La conoscenza
della conoscenza, Milano, Feltrinelli, 1989].
[12] Ancora
una volta dovremmo chiederci: cos'é la materia? Lasciamo questa
volta che il termine ci venga configurato in modo elementare da un fisico,
con le sue osservazioni sulle molecole. Egli ci ricorderà
non solo che ogni organismo materiale é una organizzazione di atomi,
ma ci illustrerà la consistenza di questo organismo e come
puo' essere liberata l'energia di legame tra le molecole. Egli, infatti,
cosi' spiega la costituituzione della materia «Tutta la materia normale
é formata di atomi, che a loro volta sono composti da nuclei centrali
molto densi circondati da una nube di elettroni. Come potrete ricordare
dai corsi di chimica o di fisica delle scuole superiori, la maggior parte
del volume di un atomo é composto da spazio vuoto. La regione occupata
dagli elettroni esterni é circa diecimila volte più estesa
della regione occupata dal nucleo. PerchÃé, se gli atomi
sono formati per la maggior parte da spazio vuoto, la materia non passa
attraverso altra materia? La risposta é che quel che rende solido
un muro non é l'esistenza delle particelle bensi' quella dei campi
elettrici che si estendono tra una particella e l'altra. Quando io batto
una manata sul tavolo, la mia mano é fermata primariamente dalla
repulsione elettrica fra gli elettroni degli atomi della mia mano e gli
elettroni degli atomi che formano il tavolo, e non dalla mancanza di spazio
fra gli elettroni. Questi campi elettrici non solo rendono corporea la
materia nel senso di impedire agli oggetti di passare l'uno attraverso
l'altro, ma ne assicurano anche la coesione. Per alterare questa situazine
normale, si devono percio' superare le forze elettriche che agiscono fra
gli atomi. Per superare queste forze si richiede lavoro, che consuma energia.
E' cosi' che funzionano in effetti le relazioni chimiche. Le configurazioni
dei singoli sistemi di atomi e i loro legami vengono alterati in conseguenza
di scambi di energia. Per esempio se si inietta dell'energia in un miscuglio
di nitrato d'ammonio e di olio combustibile, le molecole dei due materiali
possono ridisporsi, e nel corso di questo processo puo' essere liberata
l'"energia di legame" che teneva assieme i materiali originari. Questa
liberazione,
se abbastanza rapida, causerà una grande esplosione».
[Lawrence M. Krauss, La fisica di Star Trek, Milano, Longanesi, pp. 85-6].
Il punto di vista della fisica dà oggi una certezza: Eé
l'energia che tiene coeso qualsiasi corpo, o forma. Il corpo ha consistenza
perché vi circola energia controllata che alimenta e fa funzionare
i vari organi. Ora si puo' anche comprendere perché gli studi dei
neuroscienziati e della nuova fisiologia sono centrati sia sulla organizzazione
che sull'utilizzo dell'energia (questa sia sottoforma di stimoli sinaptici
che per combinazione bio-chimica) e si puo' anche ipotizzare quali effetti
corporei producono gli aggiustamenti strutturali in quell'ambiente o quali
reazione producono l'immissione di agenti chimici o le stimolazioni elettriche
ecc. con cui si riequilibra l'energia in quel corpo che ha prodotto alcune
disfunzioni. Il corpo é un meccanismo che viene di nuovo osservato
in medicina nella sua eterogenea struttura e nella funzionalità
operativa. La nuova medicina si interessa del modo in cui circola e si
trasforma l'energia bio-elettrica nel corpo e come le organizzazioni fisologiche
degli organi in relazione all'ambiente reagiscono a determinati stimoli
esterni. Alcuni medici hanno compreso che non solo la biologia ma anche
la fisica subatomica concorre a spiegare come funziona il nostro organismo
e quali ripercussioni la micorfisica ha su di una macrostruttura. Tutto
cio' é avvenuto anche perché é stato dimostrato in
che modo l'energia di legame degli atomi é meno forte rispetto all'energia
che lega le particelle, / protoni e neutroni / che compongono i nuclei
atomici, i quali hanno una incredibile densità . A tal proposito,
ci ricorda Krauss « Percio' le reazioni nucleari liberano una quantità
d'energia significativamente maggiore di quella liberata dalle reazioni
chimiche; ecco perché le armi nucleari sono cosi' potenti. Infine
l'energia di legame che tiene assieme i quark / ossia le particelle elementari
che formano i protoni e i neutroni stessi / E' ancora maggiore di quella
che assicura la coesione di protoni e neutroni nei nuclei. In effetti si
ritiene, sulla base dei calcoli resi possibili dalla teoria che descrive
le interazioni dei quark, che per separare completamente i quark che compongono
ogni protone o neutrone si richiederebbe una quantità d'energia
infinita. Sulla base di questo argomento potremmo ritenere impossibile
una completa dissoluzione della materia nei quark, i suoi componenti fondamentali,
e in effetti é cosi', almeno a temperatura ambiente. La stessa teoria
che descrive le interazioni dei quark all'interno dei protoni e neutroni
ci dice pero' che, se riscaldassimo i nuclei a 1000 milardi di gradi circa
(una temperatura un milione di volte maggiore di quella vigente nella regione
centrale del Sole), non solo i quark che compongono i nuclei perderebbero
le loro energie di legame, ma la materia perderebbe improvvisamente quasi
tutta la sua massa trasformandosi in radiazione, o,/ smaterializzandosi».
[Ivi, pp. 86-7]. Quanto esplicato nella nota ci occorre per comprendere
come energia e organizzazione organica sono i fondamenti sia del corpo
biologico vivente che per un qualsiasi altro organismo, anche robotico.
In entrambi importante sono come sono organizzate le informazioni (biologiche,
o di memoria, o banca dati computerizzata) e a quali sistemi operativi
i due organismi fanno riferimento una volta riconosciuta una variabile
(o evento).
[13] Il fisico
John D. Bernal, nella sua ricognizione storica sulla cosiddetta «fisica
classica» ha evidenziato come gli sviluppi tecnici hanno condotto
sempre ad un'altra evoluzione della fisica. Essa, come il linguaggio, é
difficile da cambiare. Infatti dall'età della pietra ad oggi
«il grosso del linguaggio e del modo di pensare ad esso collegato
é un fossile e abbiamo davanti a noi un lungo cammino prima di potercene
liberare. Per esempio, alcune nozioni che consideriamo puramente matematiche,
quali quelle dell'angolo retto e del quadrato, sono, alla loro origine,
di natura tecnica o sociale. L'idea di corretta disposizione dell'abitato
é l'idea stessa di legge, di regola. Regola é una parola
di natura sociale, solo in un secondo tempo le é stato dato un carattere
matematico. la stessa cosa vale per i punti cardinali, corrispondenti all'orientamento
dell'accampamento: un messaggio dell'ordinamento primitivo di carattere
sociale ad uno più sofisticato di carattere geometrico». John
D. Bernal, Storia della fisica, Roma, Editori Riuniti, 1983, pp. 20-1.
Si veda a tal proposito tutto il paragrafo Aspetti sociali della fisica,
pp.19-21. Inoltre segnaliamo i coordinamenti fisiologici tra i vari organi
di senso che questo autore evidenzia nel trattare gli aspetti fisici. Egli
individua sette organi di senso. Ai cinque comuni ne aggiunge altri due:
quello muscolare, con i suoi organi, i cosiddetti fusi neuromuscolari,
utile a mantenere l'equilibrio insieme alla forza, e la percezione della
temperatura, che é studiata dalla fisica, ma viene rilevata dalla
modificazione chimica dell'esposizione dell'organismo e quindi si associa
agli altri due sensi che hanno componenti chimici, quali quelli dell'odorato
e del gusto. Si veda a tal proposito pp. 15-19 e 199 segg. e pp. 274-77.
A questa visione sociale della matematica si aggiunga quanto nel campo
filosofico il neo-empirista Friedrich Waismann, nel 1936, affermava «La
matematica non consiste di tautologie. Per quanto riguarda il segno d'eguaglianza,
osserviamo solo la scrittura a = b viene usata, in matematica, come
una regola la quale esprime che a, ovunque compaia, puo' venir sostituita
da b ¦
L'eguaglianza non costituisce dunque una
tautologia ma piuttosto un comando ed é molto più prossima
ad una proposizione empirica che ad una tautologia. Essa é effettivamente
una regola che dirige le nostre azioni (come una regola del gioco degli
scacchi) regola che puo' venire seguita o trasgredita». F. Waismann,
Introduzione al pensiero matematico, Torino, 1939, pp. 164-5. Non a caso
dall'ottica della costruzione matematica neo-empirista l'importante é
assumere e rendere valido il sistema operativo e non più l'esperienza.
Fondamentali, quindi, sono i frutti che questo sistema puo' produrre. L'esperienza
inizia ad avere la sua importanza solo quando essa entra in conflitto con
uno dei sistemi organizzativi della matematica (o, meglio, della logica).
[14] Vedasi
a tal proposito il «mondo tre», o mondo intermedio, di Karl
R. Popper, specie il saggio Epistemologia senza il soggetto conoscente,
letto il 25 agosto del 1967 ad Amsterdam al Terzo convegno Internazionale
di Logica, metodologia e filosofia della scienza (25 agosto - 2 settembre)
(titolo originale dell'intervento Epistemology Without a Knowing Subject,
sta negli Atti di quel convegno a cura di B. Van Rootselaar e J. F. Staal,
Amsterdam 1968, pp. 333-373,) la cui traduzione italiana sta in, K. R.
Popper, Epistemologia razionalità e libertà , Roma,
Armando Editore, 1972, pp. 7-66. Il concetto di mediocosmo é stato
anche usato da Adolf Portmann in biologia per descrivere la vita nel mondo
della natura e delle forme umane in base alla quale l'uomo regola e conduce
la propria vita e lo ha distinto da quello del movimento dei pianeti, delle
stelle e delle galassie / o macrocosmo / e da quello dei sistemi biologici
dei microrganisi elementari, che noi non vediamo. Si veda a tal proposito
la sua conferenza Eranos del 1961pubblicata in «Eranos -Jahrrbuch»
XXX, 1962 dal titolo in italiano I principi ordinatori della vita nell'interpretazione
della biologia, sta in A. Portmann, Le forme viventi, nuove prospettive
della biologia, Milano, Adelphi, 19892, pp. 239-286, specie pp. 279 e segg.
[15] Il mondo
tecnologico procede parallelamente, spesso intersecandosi e, quando compreso,
identificandosi con un Movimento culturale chiamato New Age. Sebbene la
controcultura del Movimento americano degli anni '60, quello hippye,
yippie, black power ecc. all'inizio avesse rifiutato la tecnologia ha poi
proposto le nuove strade per la ricerca del benessere individuale tra eclettismo
e sincretismo culturali di religioni teorie avanzate e forme di pensiero
esistenti sul pianeta, in una visione olistica dell'uomo e della natura.
Successivamente, negli Stati Uniti d'America, specie sotto l'impulso della
letteratura cyber, é nato un nuovo movimento denominato Next Age,
dove anche la tecnologia é diventata uno dei cardini della nuova
esperienza spirituale. Quest'ultimo movimento sviluppando il carattere
individualistico, propone soluzioni a livello personale. Tra i rappresentanti
più noti del Movimento Next Age troviamo Deepak Chopra, Antony Robbins
e Morgan Scott Peck. Per una introduzione alla New Age si indicano alcuni
testi tradotti in italiano A. Dobroczyrisk, New Age, Milano, Mondadori,
1997; C. A. Keller, New Age. Lo «spirito» della nuova era,
Roma, Ed. Mediterranea, 1989; E. Fizzotti, (a cura di), La dolce seduzione
dell'acquario, Roma, Las, 1996; N. Drudy, Il potere della mente, Milano,
Xenia, 1993; M. Lacroix, L'ideologia della New Age, Milano, il Saggiatore,
1996; J. Vernette, Che cos'é il New Age, Varese, SugarCo, 1994;
A. N. Terrin, Che New Age. La religiosità del post moderno,
Bologna Edb, 1993; e M. Introvigne, Storia del New Age, 1962-1992, Piacenza,
Cristianità , 1994. Specifico sulla Next Age, si vedano per una
bibliografia G. B. Amidei, Next Age, Monferrato, Piemme, 1998; M. Introvigne
e P. L. Zoccatelli, New Age-Next Age, Firenze, Giunti, 1999.
[16] I. Kant,
Critica del Giudizio, Roma-Bari, Laterza, 1979, vol.II, p. 243.
[17] Tra le
opere recenti che si muovono verso una biopoetica o una bioestetica e che
hanno trattato la teoria biologica dell'interpretazione e della storia
delle arti vanno incluse alcune opere di questi autori citati da Wilson:
Charles J. Lumsden e Edward O. Wilson, Genes, Mind and Culture, Cambridge,
MA, Harvard University Press, 1981; Edward O. Wilson, Biophilia, Cambridge,
MA, Harvard University Press, 1984; Fredrick Turner, Natural Classicism:
Esay on literature and Science, New York, Paragon Hause Publishers, 1985;
Fredrick Turner, Beauty: The Value of Values, Charlottesville, University
Press of Virginia, 1991; Fredrick Turner, The Cultur of Hope: A new Birth
of the Classic Spirit, New York, Free Press, 1995; Ellen Dissanayake, What
Is Art for?, Seattle, WA, University of Washington Press, 1998; Ellen Dissanayake,
Where Art Comes From and Why, New York, Free Press, 1992; Iräneus
Eibl-Ebelseldt, Etologia umana. Le basi biologiche e culturali del comportamento,
Torino, Bollati Boringhieri, 1993; Margaret A. Boden, The Creative Mind:
Myths & Mechanism, New York, BasicBook, 1991; Alexander J. Argyros,
A Blessed Rage for Order: Deconstruction , Evolution and Chaos, Ann Arbor,
University of Michigan Press, 1991; Kathryn Coe, Art : the replicable unit
- an inquiry into the possible origin of art as a scoial behavior, in «Journal
of Social and Evolutionary Sistem», 15, pp. 217-34, (1992);
Walter A. Koch, The Roots of Literature, e W. A. Koch, (a cura di)The Biology
of Literature, Bochum, N. Brockmeyer, 1993; Robin Fox, The Challenge of
Antropology: Old Encounters and New Excoursions, New Brunswick, NJ,Transaction,
1994; Joseph Carroll, Rvolution and Literary Theory, Columbia, MO, University
of Missouri Press, 1995; Robert Storey, Mimesis and the Human Animal :
On the Biogenetic Foundations of Literary Representation, Evanston, IL,
Northwestern University Press, 1996; Brett Cooke, «Utopia
and The art of the visceral response» sta in Gary Westfahl,
George Slusser &Eric S. Rabin (a cura di), Foods of the Gods: Eating
and the Eaten in Fantasy and Science Fiction, Athens, GA, University of
Georgia Press, 1996, pp. 188-99; Brett Cooke e Frederick Turner (a cura
di), Biopoetics: Evolutionary Esplorationns in the Arts, New York, Paragon
Press, 1998.
[18] Edward
O. Wilson, L'armonia meravigliosa. Dalla biologia alla religione, la nuova
unità della conoscenza, Milano, Mondadori, 1999, p. 248.
[19] Cfr. G.
Siano, L'estetica la physis e l'organizzazione delle informazioni, sta
in Atti del V Convegno nazionale dell'Associazione Italiana per gli studi
di Estetica del 1999 a Gargnano sul Garda, Torino, Trauben, 2000, pp.
[20] Mario
Perniola, Del sentire, Torino, Einaudi, 1991, p. 39.
[21] Cfr. K.
R. Popper -J. C. Eccles, L'io e il suo cervello, I, Materia, coscienza
e cultura, a cura di B. Continenza, Roma, 1981, ripreso poi anche da Antimo
Negri, I tripodi di Efesto, Milano, Sugarco, 1986.
[22] Cfr. esiodo,
La teogonia, vv.928-929.
[23] Iliade,
I, «Il crudo/ afferrommi d'un piede, e miscaglio'/ dalle soglie celesti.
Un giorno intero/ rovinai per l'immenso e rifinito/ in Lenno caddi col
cader del sole/ dalli Sinzi raccolto, a me pietosi». Ma non era la
prima volta che Efesto veniva gettato dall'Olimpo. L'altra volta, con una
caduta meno rovinosa, fu alla nascita quando Era, visto il bambino debole
e deforme, o perché nato prematuro o generato senza le prestazioni
paterne, decise di disfarsene, cosi' come egli stesso ricorda in Iliade,
XVIII, «quando dal cielo/ mi feo gittar l'invereconda madre,/ che
il distorto mio pié volea celato». Quella volta la caduta
non fu tanto rovinosa perché cadde in mare e fu salvato da Eurénome
e Teti. Cosi' ancora ricorda il protagonista della vicenda: «E mille
allor m'avrei doglie sofferto,/ se me dal mar non raccogliea nel grembo/
del rifluente Océano la figlia/ Eurénome e la Dea Teti. Di
queste quasi due lustri in compagnia mi vissi,/ e di molte vi feci opre
d'ingegno/ fibbie ed armille tortuose e vezzi/ e bei monili in cavo antro
nascoso,/ a cui spumante intorno ed infinita/ di Océa n la corrente
mormorava». (Iliade, XVIII).
[24] Cfr. l'attribuzione
a Efesto che Esiodo fa ne Le opere e i giorni, e ne La teogonia. Di questo
mito alcuni dicono che fosse stato reinventato da Esiodo e dalla sua misogenia,
o sia stato frutto di una fantasia rancorosa contro le donne. Ma il rapporto
tra Eva e Pandora evidenziati da Morelli, porta a considerare il mito di
Pandora come un vero mito originario. Cfr. A. Morelli, Dei e Miti, Enciclopedia
di mitologia Universale, Milano, Fratelli Melita, 1987.
[25] Penso
al testo sulla manipolazione genetica dovute agli sviluppi delle biotecnologie
o dell'ingegneria genetica e sulle prospettive future dell'uomo, dal titolo
suggestivo e significativo scritto dal professore di «Filosofia applicata»
presso il Centre for Social Ethics and Policy dell'Università
di Manchester, John. harris, Wonderwoman e Superman, Milano, Baldini e
Castoldi, 1997.
[26] Non a
caso Quine dopo aver definito la scienza come campo di forza i cui punti
limite sono l'esperienza afferma «Come empirista io continuo a considerare
lo schema concettuale della scienza come un mezzo, in ultima analisi, per
predire l'esperienza futura alla luce della esperienza passata. Gli oggetti
fisici vengono concettualmente introdotti nella situazione come intermediari
/ non definendoli in termini di esperienza, ma come semplici postulati
non riducibili, paragonabili da un punto di vista epistemologico /, agli
dei di Omero. Io, che di fisica ho nozione più che comuni, credo
per parte mia agli oggetti fisici e non agli dei di Omero; e considero
un errore scientifico credere altrimenti. Ma in quanto a fondamento epistemologico,
gli oggetti fisici e gli dei differiscono solo per grado e non per loro
natura. Sia l'uno che l'altro tipo di entità entrano nella
nostra concezione soltanto come postulati culturali. Da un punto di vista
epistemologico il mito degli oggetti é superiore agli altri nel
fatto che si é dimostrato più efficace degli altri miti come
mezzo per elevare una semplice costruzione nel flusso dell'esperienza.
E non ci fermiamo a postulare gli oggetti fisici del mondo macroscopico.
Si postulano degli oggetti anche a livello atomico¦ La scienza é
un prolungamento del senso comune e si serve dello stesso espediente del
senso comune: amplia l'ontologia per semplificare la teoria». Cfr.
W. V. Quine, Il problema del significato, Roma, Ubaldini-Astrolabio, 1966,
p. 42.
[27] Cfr. gaston
bachelard, Epistemologia, Bari, Laterza, 1975, Questa antologia, a cura
di Dominique Lecourt, degli scritti di Bachelard evidenzia l'attenzione
ai progressi contemporanei della scienza della fisica e chimica contemporanea
in continua polemica nei confronti delle ormai antiquate teorie filosofiche
della conoscenza ancora tutt'oggi in circolazione. L'epistemologia per
Bachelard si deve intendere come una fenomenologia di lavoro, intesa come
organizzazione «o riforma di una illusione». Infatti fino al
XIX secolo «la scienza, si credeva era reale per i suoi oggetti,
ipotetica per le connessioni stabilite tra gli oggetti». Con la nuova
fisica subatomica «adesso sono gli oggetti che sono rappresentati
da metafore ed é la loro organizzazione a presentarsi come realtà
. In altri termini, cio' che adesso é ipotetico é il nostro
fenomeno; giacché la nostra presa immediata sul reale non gioca
che come dato confuso, provvisorio, convenzionale, e questa presa fenomenologica
richiede inventario e classificazione. Al contrario é la riflessione
che darà senso al fenomeno iniziale, suggerendo una serie
organica di ricerche, una prospettiva razionale di esperienze. Noi non
possiamo avere a priori alcuna fiducia nell'istruzione che il dato immediato
intende fornirci. Esso non é né un giudice né un testimone;
é un accusato, ed é un accusato della cui menzogna prima
o poi si esibiscono le prove. La conoscenza scientifica é sempre
la riforma di una illusione. Pertanto, nella descrizione, anche se minuziosa,
di un mondo immediato non possiamo ormai vedere altro che una fenomenologia
di lavoro nel senso in cui si parlava una volta di ipotesi di lavoro».
Ibidem, p. 10, [il corsivo é suo].
Un approfondimento poi di questo modo di
intendere la fenomenologia ha portato ad altre osservazioni. Da una parte
c'é il corpo fisiologico e dall'altra il corpo-fantasma della mente.
Oggi si tenta di riunificare e spiegare gli eventi del corpo-fantasma che
ha la capacità di rendersi conto dei cambiamenti di posizione
del corpo attraverso l'esistenza di una struttura corticale. Quanto detto
trova suoi nuovi sviluppi anche con l'apporto della scienza, fondata alla
fine degli anni '40 da Claude Shannon, chiamata «teoria dell'informazione»,
con cui egli dimostro' che qualsiasi messaggio, in parole o in numeri,
poteva essere ridotto ad una serie di sequenze di 1 e 0. Con il primo articolo
di Shannon sulla «Teoria matematica dell'informazione», pubblicato
nel 1948, (e poi, nel 1949, C.E. Shannon e W. Weaver, The Matematical Theory
of Comunication, Urbana, Univerity of Illinois Press, 1949,) si inizio'
a comprendere / sia tra gli scienziati, ma anche tra i filosofi / che c'é
un nuovo modo per osservare il mondo: ovvero considerandolo una serie di
relazioni in cui entra in gioco anche l'informazione e non solo la materia
e l'energia. Ma i primi lavori sulla AI (Intelligenza Artificiale) si fanno
risalire a Warren McCulloch e Walter Pitts (W. S. McCulloch e W. Pitts,
A logical calculus of the ideas immanent in nervous activity, sta in Bullettin
of Matematical Biophysics, 5, 1943, pp. 115-37). Essi avevano attinto a
tre fonti: «la conoscenza della fisiologia e della finzione di base
dei neuroni nel cervello, l'analisi formale della logica proposizionale
dovuta a Russell e Whitehead e la teoria della calcolabilità
di Turing». (Sta in S. J. Russell e P Norvig, Intelligenza Artificiale,
Torino, UTET, 1998, p. 17). Nel 1956 ad un convegno nella città
di Dartmouth a cui partecipo' Nathaniel Rochester, che era uno scienziato
dell'IBM, avvenne un importante incontro. Questi aiuto' Minsky a realizzare
un programma appena allora teorizzato, per la dimostrazione di teoremi
della geometria piana, e sviluppato poi da Herbert Gelernter della IBM.
Furono poi le ulteriori ricerche di John McCarty, Marvin Minsky, Herbert
Simon e Allen Newell attraverso cui si inizio' a trasferire le semplici
operazioni della mente in una «memoria» di un computer. Si
veda George Johson, La Mente e la macchina, Milano IHT, gruppo Editoriale
Srl, 1990, p. 40.
[28] Con Newton
il processo scientifico prende nuova vitalità . Newton nel XVIII
secolo diventa emblema dell'uomo che ha scoperto il linguaggio attraverso
cui parla la natura. Poeti, scultori e artisti di tutte le arti, nonché
scienziati, filosofi, politologi e moralisti si trovano coinvolti nel fondare
le loro argomentazioni su questo nuovo ordine naturale. Newton svela il
nuovo mondo incantato attraverso i miti dell'armonia. Da qui si genera
tutta la letteratura newtoniana: dall'armonia che regna nella società
degli astri fino alle antipatie o alle affinità riscontrabili
nelle associazioni o nello scioglimento dei legami nei composti chimici.
Tutti possono assistere agli effetti organizzativi che si riproducono in
modo similari, a volte sfalsati o amplificati nell'universo delle società
umane. Una nuova giustificazione ed organizzazione della vita viene prodotta
con la linfa vitale dei nuovi termini scientifici. Si veda l'uso metaforico
dei concetti newtoniani all'inizio del XIX secolo che giunge fino agli
anni '70 del nostro secolo XX. Le attuali evoluzioni nel campo della fisica
della fisiologia delle neuroscienze della biologia e delle scienze evolutive
iniziano a produrre una recente e più appropriata analisi della
organizzazione del linguaggio e dei processi sociali e culturali coevi.
La cultura diventa, cosi', l'organismo conoscitivo attraverso cui si indaga
l'infinitamente piccolo e l'immensamente grande dell'uomo. Per quanto riguarda,
ad esempio, l'uso metaforico dei concetti newtoniani all'inizio del 1800
si veda il bel libro di J. Schlanger, Les métaphores de l'organisme,
Paris, Vrin, 1971, in paricolare pp.36-45 e 99-108. In più oggi
la cultura, attraverso la cibernetica e le scienze tecnologiche ad essa
connesse, come la AI e la computerizzazione sta trasferendo la sensorialità
dell'esperienza della comunicazione e del linguaggio in linguaggio digitale,
ovvero si stanno traducendo tutte le informazioni in sequenze numeriche.
Per quanto riguarda il rapporto della filosofia della natura e le macchine
dal 1400 al 1700 si veda anche il celebre libro di Paolo Rossi, I filosofi
e le macchine, Milano, Feltrinelli, 1962. Non é un caso fino a buona
parte del 1800 il meccanicismo é stato a fondamento anche di una
sorta di materialismo 'volgare' che riduceva l'uomo ad una macchina composta
da un insieme di parti scomponibili e analizzabili in modo indipendente;
ogni aspetto umano doveva essere analizzato secondo i principi della fisica
newtoniana ed in particolare per mezzo dei concetti della meccanica. Solo
quando con le nuove matematiche, l'evoluzionismo, la nuova fisica, la scoperta
di nuovi elementi chimici e l'inizio delle scienze biologiche diedero nuovi
impulsi già alla fine del 1800 alla evoluzione della filosofia
della scienza delle macchine.
[29] Cfr. anche
l'altra edizione di norbert Wiener, Cibernetica, Milano, Saggiatore, 1968.
La cui definizione é già presente nello stesso sottotitolo
dell'edizione del 1948 di Cybernetics, or Control and Comunication in the
Animal and the Machine, Cambridge, Mass., The Tecnology Press of M.I.T.,
1948, ovvero la Cibernetica é all'inizio la scienza del controllo
e della comunicazione nell'animale e nella macchina, nonché tutta
una serie di ricerche storicamente connesse a questi studi sul controllo
e sulla organizzazione della comunicazione nell'animale e nelle macchine.
Non é da trascurare poi gli studi sviluppati dalla cibernetica della
mente, che sono più attinenti al pensiero umano. Queste indagini
hanno subito un ulteriore incremento e hanno evidenziato molte differenze
con gli altri studi dello stesso periodo. Le ricerche sul corpo sul cervello
e sulla mente umana, animale e meccanica hanno trovato nuovi sviluppi specie
grazie alla cibernetica. Questa si presentava agli studiosi con ampi e
rilevanti riferimenti epistemologici: appariva ricca di spunti logico-matematici;
si interessava del dibattito delle scienze, in particolare per la tematica
dell'informazione-entropia; aveva una motepicità di suggerimenti
per le scienze biologiche e fisiologiche, proprio perché essa si
proponeva come «studio della regolazione nelle macchine e negli esseri
viventi» [norbert Wiener, Dio & Golem S.P.A. Un commmmento su
alcuni punti in cui la cibernetica tocca la religione, Torino, Boringhieri,
1967, p.71]; promuoveva e contribuiiva allo sviluppo sugli studi animali,
con il suo desiderio di accostare le macche agli animali; e, infine, come
cibernetica della mente essa veniva connessa agli studi psicologici, in
quanto era strumento comparativo tra macchina e pensiero umano.
[30] La depolarizzazione
si presenta come un fenomeno in cui un messaggio elettrico si trasforma
in messaggio chimico, attraverso il passaggio del canale sinaptico a nuovi
recettori (quelli conosciuti sono cinquanta, o forse cento). Questi recettori
alcuni sono eccitatori altri inibitori allo stimolo percepito per cui alcuni
accendondo altri neuroni e chiedono una risposta all'evento; altri inibitori
che decidono la poca importanza di una risposta all'evento. Se prevalgono
gli influssi inibitori il neurone non é stato depolarizzato a sufficente
per accendersi. Se invece prevalgono gli impulsi eccitatori la permeabilità
della membrana ricettiva si apre e crea un impulso nervoso, il quale, conosciuto
col nome di potenziale d'azione, fluisce nel cervello senza essere smorzato.
La definizione del cervello ci viene da uno dei più autorevoli neuroscienziati
viventi Richard Reebok: «Potremmo definire il cervello come il computo
totale d'interazione eccitatorie e inibitorie tra tutti i neuroni in ogni
istante. Questo bilancio é assolutamente unico in ogni nostra esistenza,
ed é alla radice della natura dinamica del cervello. Non solo il
cervello di ognuno di noi é unico /anche quelli di genmelli identici
/, ma lo stesso cervello non é mai identico a sé stesso,
poiché il bilancio tra eccitazione e inibizione muta di continuo».
[R. M. Restak, Il cervello modulare, Milano, Longanesi & C., 1998,
p. 28]. Si puo' affermare, pertanto, che la depolarizzazione é quel
fenomeno elettrico che avviene nelle fibre nervose. Ed in particolare essa
si presenta come la perdita della polarità della carica elettrica
tra interno ed esterno della fibra nervosa, dovuta all'apertura di piccoli
canali che fanno passare le cariche elettriche dall'interno all'esterno
della fibra nervosa, e viceversa. La perdita di polarità , come
abbiamo osservato precedentemente, diventa fondamentale affinché
questo impulso si propaghi, attraverso il processo sinaptico ad altri nervi
con un potenziale d'azione.
[31] Si veda
di Jean-Claude Quiniou, Jean-Marc Font, Gérard Verroust, Jean-Marc
philippe, Claudine Marenco, I cervelli artificiali, Firenze, Sansoni, 1972,
specie il seguente passo: «Che cos'é l'informazione? E' una
nozione legata a quella di 'messaggio'. Un messaggio é un fenomeno
fisico che ha luogo tra due parti dell'universo di cui una, causa di questo
fenomeno, é l'emittente del messaggio e l'altra, modificata da questo
messaggio, é la ricevente. Per esempio, in un messaggio vocale il
fenomeno fisico é una vibrazione sonora, l'emittente é l'organo
vocale (e precedentemente un cervello), la ricevente é un orecchio
(e successivamente un cervello): la bocca crea vibrazioni che modificano
lo stato dell'orecchio ricevente facendolo vibrare all'unisono. Si dice
che un messaggio reca delle informazioni quando il suo contenuto (o la
sua forma) era ignorato prima di essere stato emesso. Più grande
é la parte ignorata e maggiore é l'informazione. E' evidente.
Una spia di temperatura avente soltanto due possibili posizioni, acceso
e spento, dà una quantità minore di informazioni
di un indicatore graduato. Nel primo caso esistevano solamente due possibilità
che l'informazione ricevuta trasmette in certezza; mentre nel secondo caso
ce n'erano 20 o 30, a seconda del grado di precisione dell'indicatore,
più grande é la scelta tra le varie possibilità ,
e maggiore é l'informazione che trasforma questa possibilità
in certezza. La teoria dell'informazione permette di formulare delle leggi
che, partendo da questa constatazione, danno la misura della quantità
d'informazione di un messaggio». p.13.
[32] Cfr. N.
Wiener, Introduzione alla cibernetica, Torino, Boringhieri, 1966, specie
il capitolo VI «L'individuo come parola» pp. 119-27. Questo
libro Wiener lo ha scritto nel 1950.
[33] Bit é
un termine informatico che abbrevia la parola «Binary Digit (cifra
binaria) e indica l'unità elementare di informazione con cui
opera la memoria di un computer». L. Allori, Dizionario dei mass-media,
Milano, Mondadori, 1992, p. 49. Da aggiungere che il calcolatore combina
le cifre binarie e ne fa un codice. Questo codice binario, é alla
base di ogni sistema che si attiva nel computer; pertanto, tutto viene
tradotto in questo codice dalle immagini (questo é oggi possibile
grazie ad algoritmi e ai frattali, ovvero con formulazioni matematiche
capaci di generare immagini elettroniche) alle parole ai numeri. Infatti
il codice binario che comunemente é adottato da tutti i sistemi
informatici é costituito da due soli segni convenzionali di base
le cifre '0' e '1' «I messaggi in questo linguaggio (parole e numeri)
vengono infatti espressi mediante successioni e combinazioni sempre diverse
di cifre binarie (BIT), appunto comprendenti solo lo '0'e l'1' allo stesso
modo di come le cifre da '0' a '9' sono gli elementi base del sistema di
numerazione decimale, quelli con cui si formano tutte le cifre (decine,
centinaia eccetera). Il codice binario, naturalmente, non corrisponde a
un alfabeto materiale, non si presenta sotto segni grafici, ma é
costruito da flussi di elettroni che transitano nei circuiti del computer.
Ed é proprio il modo in cui possono passare ed essere trattati questi
elettroni che permette di attuare le comunicazioni binarie: infatti, l
'0' e l'1' corrispondono a quando il circuito elettrico aperto, cioé
passa corrente, o a quando il circuito aperto é chiuso, cioé
non passa corrente: un po' come succede coi punti e le linee nel linguaggio
telegrafico, con la differenza che la estrema semplicità del
codice (due soli segni) e la velocità con cui lavorano i computer
permettono una elaborazione dei dati a vertiginosa velocità , inconcepibile
con qualsiasi altro linguaggio». Ibidem, p. 83.
[34] Cfr. K.
Steinbuch, Automa e uomo, Torino, Boringhieri, 1968, pp.230 e segg.. Questa
teoria dell'informazione, la cui unità di misurazione é
il bit, é stata applicata a molti settori di ricerca non solo scientifica,
ma anche umanistca. Alcune applicazioni di essa é rilevabile in
J. Pierce, La teoria dell'informazione, Milano, Mondadori, 1963. E' chiaro
che per completare il circuito, ovvero il sistema elettrico di cui sopra
per essere veramente eterofenomenologico, deve, in qualche modo, essere
funzionale o dare una risposta al messaggio ricevuto. Dopo che l'informazione
é passata nell'altra struttura, che é stata riconosciuta,
controllata ed eventualmente elaborata o adeguata al proprio sistema, la
cosa importante diventa che colui che fa l'operazione, sia esso uomo o
macchina, deve essere fornito di una unità di uscita per rintrodurre
le informazioni nella rete sociale delle altre 'macchine'. (Si aggiunge
qui che a questa nuova socialità appartengono non solo le
macchine umane, ma anche le macchine computazionali vengono dotate oggi
di una unità di trasformazione dell'energia elettrica in azione
verso l'esterno con l'applicazione di trasformatori di energia ad esempio
in energia cinetica, meccanica, ecc. /da queste prime e rudimentali applicazioni
sono nate le prime recentissime macchine computerizzate autonomamente operative).
Uno dei primi nel mondo moderno a dare una nuova visione fisiologica del
corpo come macchina é il medico e filosofo materialista Julien Offroy
de Lamettrie, la cui opera L'uomo macchina (Leida, 1748) gli procuro' non
pochi problemi da parte di fanatici religiosi sia in Francia che in Olanda.
Solo a Berlino presso il re Federico II, filosofo e protettore di filosofi
e delle arti, trovo' asilo. Durante la sua breve permanenza a Berlino,
prima della morte, scrisse altre brevi ma importanti opere come L'uomo
pianta (1748) Gli animali più che macchine (1750). In italiano si
veda il testo J. O. de Lamettrie, L'uomo Macchina e altri scritti, Milano,
Feltrinelli, 1973, che oltre alla Dedica. Al Signor Haller, professore
di medicina a Gottinga, il su citato L'uomo Macchina, e L'uomo pianta ,
contiene anche l'Antiseneca ossia Discorso sulla felicità
(1750).
[35] A tal
proposito si noti la breve evoluzione del pensiero scientifico e le sue
ripercussioni sull'agire e sull'evoluzione dell'uomo tracciata da Ervin
Laszlo a partire dalla teoria costituitasi con le scienze della complessità
. «Le scienze contemporanee della complessità studiano
invece la comparsa, lo sviluppo e il funzionamento dei sistemi complessi
indipendentemente dall'ambito di indagine al quale essi appartengono. Queste
scienze hanno avuto origine con la teoria generale dei sistemi / i cui
antesignani furono von Bertalanffy, Paul Weiss, Anatol Rapoport, e Kennet
Boulding / e con la scienza cibernetica sviluppata da Wiener, Asby e Beer.
Dopo il 1970 a queste scienze si sono aggiunte / con un effetto di rafforzamento
reciproco / la termodinamica di non equilibrio, opera di Katchalsky, di
Prigogine e dei loro collaboratori, e la teoria dinamica dei sistemi, un
ramo della matematica teorica che é stato sviluppato da Thom e più
recentemente da Shaw e da Abraham». (E. Laszlo, Evoluzione, Milano,
Feltrinelli, 1986, p. 31.) Ed é evidente come questi campi di indagine
scientifica hanno fornito e fatto sviluppare, con altri campi di indagine,
le basi più logiche per la spiegazione del nuovo paradigma evolutivo
sia delle macchine (cibernetica) che del governo dei sistemi umani (noetica).
Sul rapporto cibernetica e noetica si veda Giovanni B. Scuricini e - Maria
Luisa Scuricini, Cibernetica e noetica, Firenze, Sansoni Editore nuova
SpA, 1975. Mi preme qui ricordare come il termine noema venne usato nella
fenomenologia di Husserl per indicare l'aspetto oggettivo dell'esperienza
vissuta, cioé l'oggetto considerato dalla riflessione nei suoi vari
modi di essere dato. Esso si distingue dall'oggetto stesso che viene detto
cosa.
[36] Si veda
a tal proposito Gennar Luigi Linguiti, Macchine e pensiero, Milano, Feltrinelli,
1980, pp.48-49.
[37] Cfr. Gianfranco
Bettetini, La simulazione visiva, Milano, Bompiani, 1991.
[38] N. Wiener,
Introduzione alla cibernetica, op. cit., p. 29.
[39] Norbert
Wiener, Julian Bigelow e Arturo Rosenblueth, Behavior, Purpose and Teleology,
in «Philosophy of Science», X, 1943, pp. 18-24; tr. it. Comportamento,
fine e teleologia, in Dio & Golem S.P.A., op. cit., p. 101.
[40] N. Wiener,
Introduzione alla cibernetica, op. cit., p. 180.
[41] Ibidem,
p. 180.
[42] Il riferimento
é all'assunto antropologico del sociologo Lewis Mumford. Tra le
importanti opere tradotte in italiano si ricordano di L. Munford, Il mito
della macchina, Milano, Il Saggiatore, 1969; Tecnica e Cultura, Milano,
Il Saggiatore, 1961; Arte e tecnica, Milano, ed di Comuntà , Milano,
1952; Tecnica e civiltà , Milano, Il Saggiatore, 1972; Il pentagono
del potere, Milano, Il Saggiatore, 1973; Il futuro della città ,
Milano, Il Saggiatore, 1972; La condizione dell'uomo, I e II, Milano, Bompiani,
1977; La città nella storia, I, II, III, Milano, Bompiani,
1977 (Milano Etas Kompass, 1964). Egli, allievo di Patrik Geddes, é
stato tra i primi in questo secolo a legare e a fare una storia di arte
e tecnica della evoluzione umana dando una singolare definizione di utensile
e di macchina.
Al cervello sovrasviluppato Mumford attribuisce
la trasformazione dell'energia in forme simboliche. L'utensile più
importante dell'uomo fu per lui il corpo-mente: «più importante
di ogni sua successiva invenzione: un corpo che la mente rendeva attivo
in ogni sua parte, comprese le membra che costruivano mazze, scuri o frecce
di legno. La risorsa umana più importante che rendeva sterminato
tutti gli sviluppi del suo orizzonte tecnico fu proprio quell'«equipaggiamento
biologico ben più ricco di qualsiasi altro animale, un corpo non
specializzato in un'attività particolare e un cervello capace
di esplorare un ambiente più vasto e di tenere unite tutte le componenti
della sua esperienza. Proprio per questa plasticità e sensibilità
straordinarie, egli fu in grado di utilizzare una parte maggiore sia del
suo ambiente esterno sia delle proprie risorse piscosomatiche». Ma
egli va oltre, pone su un piano diverso lo sviluppo della tecnica con lo
sviluppo della macchina: «le macchine si sono sviluppate da un complesso
di fattori inorganici destinati a trasformare l'energia, a compiere un
lavoro, ad aumentare le capacità meccaniche o sensoriali del
corpo umano oppure a ridurre ad un ordine regolare e misurabile il fenomeno
vitale. Il Robot é l'ultimo passo di un cammino che é cominciato
con l'uso di questa o quella parte del corpo umano come utensile. Dietro
lo sviluppo degli utensili e delle macchine é il tentativo di modificare
l'ambiente, in modo da rafforzare e sostenere l'organismo umano; lo sforzo
tende o ad allargare le possibilità di un organismo che sarebbe
altrimenti inerme, o a costituire fuori di esso una serie di condizioni
più favorevoli al mantenimento del suo equilibrio, ed alla continuazione
della sua esistenza. In luogo di un adattamento fisiologico al freddo,
come sarebbe la crescita del pelo o l'abitudine alla ibernazione, vi é
un adattamento all'ambiente, ed esterno, quale adozioni di vestiti, e la
costruzione dei ripari». [L. Munford, Tecnica e Cultura, op. cit.,
pp. 25-6]. Il discorso di Mumford continua in questo libro, che sebbene
pubblicato in Italia nel 1961 é del 1934, con la distinzione tra
utensile e macchina con l'aggiunta delle macchine-utensili e la loro programmazione
e gli sviluppi di queste con il loro utilizzo pratico e sociale. Sia le
macchine-utensili che le macchine sono analizzate come organismi minori,
per compiere determinati tipi di funzioni; anzi molti strumenti tecnici
sono stati considerati «grossolanamente» macchine. Comunque
é difficile dover fare una distinzione netta di alcune suppellettili
con alcune macchine, per cui é errore parlare solo di quelle dimenticando
le altre o viceversa. Munford, per maggior chiarezza, afferma che «Occorre
ricordare che entrambi i gruppi hanno rappresentato una parte enorme nello
sviluppo del mondo moderno, e non é possibile separare i due gruppi
in nessun periodo della storia. Ogni complesso tecnologico li include entrambi;
cosi' pure il nostro moderno». [Ibidem, p. 27]. Tutte le macchine
e le scoperte scientifiche sono in connessione perché l'uomo sviluppi
un maggiore controllo sull'ambiente. A questo punto Mumford propone una
distinzione tra «macchina» e «la macchina» prima
del suo excursus teorico: «D'ora in avanti quando useremo la parola
macchina, ci riferiamo ad oggetti specifici, come la pressa da stampa o
il telaio meccanico. Quando useremo l'espressione 'la macchina', la impiegheremo
invece come accenno sintetico all'intero complesso tecnologico. Questo
comprenderà le conoscenze, le capacità e le arti
che derivano dall'industria, o che sono incluse nelle nuove tecniche, e
comprenderà , oltre alla macchina vera e propria, vari tipi di apparati,
suppellettili, strumenti ed impianti».[Ibidem, pp. 27-8]. Questo
tipo di distinzione operata da Munford per il concetto di «macchina»,
ha avuto bisogno di nuove forme coeve proposte dalla tecnologia prima elettrica
e poi elettronica e dal nuovo mondo della organizzazione delle informazioni
nelle macchine e negli automi. Le differenze tecnologiche che intercorrono
tra la struttura della macchina dell'industria e il suo complesso tecnologico
fino agli anni '50 e quella attuale sono abissali. Esse vertono sulla operatività
e sulla autonomia della informazione dell'AI applicata alla «robotica».
[43] L. Munford,
Tecnica e Cultura, op. cit., p. 15.
[44] Cfr. N.
Wiener, Introduzione alla cibernetica, op. cit., p. 179. Sembra quasi che
il termine cibernetica sia stato scelto da Winer per le innovazioni apportate
dal cronometro nautico e dalle tavole di navigazione all'arte della navigazione.
Il cronometro nautico «cioé un orologio costruito con
precisione e con le caratteristiche di autocompensazione necessarie per
segnare il tempo con un errore di pochi secondi, nel corso di un viaggio
alla industria della nave. L'altro fu la stesura di precise tavole matematiche
concernenti i movimenti della luna, per permettere al pilota di servirsi
del satellite come di un orologio con il quale controllare l'apparente
movimento del sole. Questi strumenti hanno dominato la scienza della navigazione
fino ai recenti sviluppi della radio e del radar».
[45] A tal
proposito si veda Isaac Asimov, Cronologia delle scoperte scientifiche,
(?), Pan S.r.l., 1991, pp. 393 e 394. L'autore parla del perfezionamento
del telefono da parte di Edison, dopo il brevetto di Bell, con una imboccatura
contenente polvere di carbonio.
[46] Oggi il
computer é diventato sistema importante della macchina bellica.
Le guerre si iniziano a fare con robot volanti carichi di esplosivi o con
bombe intelligenti; nel mare ci sono mine che si attivano alla presenza
del bersaglio programmato. Tutti questi ordigni sono divenuti indipendenti,
una volta attivati, si scelgono il percorso per reggiungere il loro bersaglio.
I calcolatori, che costano sempre meno e sono sempre più efficienti,
oggi possono gestire tutto su di un aereo o su di una nave, l'uomo é
quasi un ingombro di gran lunga più costoso della tecnologia impiegata.
Le decisioni comunque spettano sempre agli uomini. Ad esempio «Un
missile Cruise é in sostanza un bombardiere robotico. E' come un
bombardiere con pilota, ma, rispetto a questo, é più piccolo,
costa meno, é meno visibile ed é estremamente preciso. Grazie
al collegamento radio tra i suoi calcolatori e una rete di satelliti che
copre l'intera superficie terrestre, il missile puo' conoscere in ogni
momento la sua esatta posizione; possiede inoltre particolareggiate mappe
elettroniche di dove é diretto. Come un segugio tutto teso a tener
dietro una pista, puo' colpire un bersaglio a più di duemila chilometri
di distanza con un'approssimazione di pochi metri. da una terrazza a Los
Angeles potrebbe colpire la porta di un garage a Dallas». Sta in
Greory J. E. Rawlins, Le seduzioni del computer, Bologna, il Mulino, 1997,
p. 111. Per le tecnologie usate nelle varie guerre da quelle delle Falkland,
con gli Excet, alle mine nella guerra del Golfo Persico o al raid contro
la Libia con aerei robotici e sul futuro di militari al silicio, si veda
l'intero cap. V, «La guerra dei robot», pp. 109-38.
[47] Vannevar
Bush é considerato universamlmente il padre dei nuovi media comunicazionali.
Nel 1945, quando era direttore dell'Office of Scientific Reserche and Development
for the U. S., l'Ufficio per la Ricerca Scientifica e lo Sviluppo per l'impegno
bellico statunitense, egli pubblico' un articolo su «Atlantic Monthly»
dal titolo Come si potrebbe pensare. Quest'articolo fece un grande scalpore
ed é stato uno di quelli più citati in campo scientifico.
(In Internet «esiste anche una pagina Web» a lui dedicata dove
si possono reperire i testi e le foto «di questo autore carismatico»).
«Bush inizia con una domanda: /Che cosa faranno gli scienziati nel
futuro?/. Il testo dunque prosegue con l'anticipazione del fax, della fotocopiatrice,
della macchina fotografica polaroid, del microfilm, del riconoscimento
vocale e della tanto annunciata macchina capace di trascrivere un discorso,
del personal computer, della multimedialità e degli ipermedia. L'articolo
presenta anche l'allettante passaggio della realtà virtuale».
Sta in John Green, La nuova frontiera delle comunicazioni, Milano, Mondadori,
1998, pp. 52-3.
[48] Charles
Babbage (1792-1871) fu un grande matematico, di orgine inglese. Molti dei
suoi risultati sulle macchine calcolatrici furono presentati in un volume
dal titolo Economy of Machines and Manifactures, London, 1834. Babbage
fu anche il primo a introdurre lo studio della mente attraverso modelli
meccanici. Egli aveva inventato la macchina analitica, che fu una elaborata
macchina di calcolo che anticipava i principi di funzionamento del calcolatore
programmabile. Un secolo più tardi Alan Turing perfeziono' l'idea
di Babbage formulando la teoria del calcolatore digitale cosi' come noi
la conosciamo. Il calcolatore ci permette di verificare concettualmente
la correttezza dei modelli proposti: supponendo che un dato comportamento
possa essere funzione di un determinato modello strutturale, senz'altro
si potrà programmare un calcolatore che sia in grado di simulare
quel comportamento preso in esame. Se quel modello é corretto, il
comportamento corrisponderà a quello reale. Turing suggerisce
che per ora le macchine sono subcritiche, ma é solo una questione
di complessità . Se si oltrepassa la soglia della complessità
compare una differenza qualitativa. Le macchine immaginate finora non superano
questa soglia ma egli prevede che in un futuro prossimo, si costruiranno
macchine supercritiche che saranno del tutto diverse da queste semplici
progettate ancora attualmente. Egli ammette che un giorno si possa costruire
una macchina più complessa del cervello, per cui di gran lunga più
intelligente. Infatti egli afferma che il mondo della complessità
non esclude che questo possa accadere.
[49] Mi riferisco
a quanto ha affermato poco più di un quinquennio fa uno dei massimi
studiosi del cervello umano, il neuroscienziato Richard M. Restak. E' bene
qui ricordare che la neuroscienza sta modificando radicalmente sia il modo
di avvicinarsi allo studio della mente e del cervello, sia il modo di avvicinarsi
allo studio delle sue confugurazioni e funzioni. Ad esempio un fatto acclarato
per i neuroscienziati é che «la memoria non é una:
é molteplice; non é una 'cosa', ma una associazione di sistemi
interattivi, con funzioni diverse, che operano in tutto il cervello a vari
livelli di complessità ». [R. M. Restak, Il cervello modulare,
op. cit., p. 129]. Oppure si crede nel superamento della psicoanalisi,
come l'aveva individuata Freud: «Freud parlo' di inconscio riferendosi
ai processi che influenzano il comportamento e non superano la soglia della
coscienza. Tuttavia, il suo contributo pati' di credibilità
soprattutto per la convinzione che l'inconscio sia una specie di calderone
in cui ribollono istinti primari repressi e inibiti, come l'aggressività
e il sesso. Ma questo non é vero: i pazienti dal cervello diviso
rimangono 'incoscienti' di situazioni per nulla correlate al sesso o alla
violenza. I neuroscienziati parlano di 'inconscio cognitivo'', di cui abbiamo
visto vari esempi nel nostro viaggio all'interno del cervello modulare
(agnosia e memoria implicita, per citarne due)». [Ibidem, p. 183].
Altre cose si puo' dire sulla coscienza e sui moduli oggettivi e soggettivi
ad essa correlati. Ad esempio, facendo riferimento al principio di indeterminazione
di Heisemberg nel misurare una particella subatomica, Restak afferma che
non si puo' conoscere contemporaneamente qual é la posizione / o
qual é il momento preciso /in cui iniziamo a lasciare il mondo soggettivo
e passiamo a descrivere e ad interessarci del mondo oggettivo. [Si vedano
le mirabili pagini Ibidem, pagg. 188-89 e segg.]
[50] N. Wiener,
Introduzione alla cibernetica, op. cit., p. 192.
[51] Wiener
paragonando il meccanismo umano alla macchina cosi' si esprime:
«E' mia convinzione che il comportamento
degli individui viventi é esattamete parallelo al comportamento
delle più recenti macchine per le comunicazioni. Entrambi sono forniti
di organi sensori di recezioni che agiscono come primo stadio del ciclo
di funzionamento: in entrambi esiste, cioé un apparato speciale
per raccogliere informazioni dal mondo esterno a bassi livelli di energia,
e per renderle utilizzabili nel comportamento dell'individuo o della macchina.
In ambedue i casi questi messaggi esterni non sono utilizzati al loro stato
naturale, ma dopo un processo interno di trasformazione operato dalle forze
dell'apparato.
Le informazioni sono tradotte quindi in
una nuova forma utilizzabile dagli stadi successivi del funzionamento.
Sia negli animali che nelle macchine cio' deve tradursi in un'azione effettiva
sul mondo esterno. In entrambi l'azione eseguita sul mondo esterno, e non
mera intenzione, viene comunicata all'apparato centrale regolatore. Questa
complessità del comportamento é ignorata dall'uomo
della strada, e quindi la coscienza di essa non interviene con tutto il
suo peso e la sua importanza nella nostra abituale analisi della società
. Cio' é vero non soltanto se consideriamo gli esseri umani isolatamente,
ma anche in rapporto a quei tipi di automi che sono in duplice relazione
col mondo esterno». Ibidem, pp. 29-30.
[52] Ibidem,
, p. 198.
[53] Renzo
Rosei, Tra ricerca di base e applicazioni tecnologiche, (testo a cura di
Laura Bodini) sta in AA. VV., La materia condensata, Napoli, CUEN, 1994,
pp. 29-42.
[54] Ibidem,
p. 35.
[55] Ibidem.
[56] Ibidem,
p. 41.
[57] Cfr. A.
Portmann, Illuminazione e apparizione dei viventi, sta in Le forme viventi,
Milano, Adelphi, 19892 , pp. 45-73. Egli noto' che in biologia si stava
costituendo una nuova teoria delle forme visibili, che legavano la struttura
dell'occhio alla forma visibile. Il riconoscimento sensorio é cosi'
una delle forme individuative della specie. Portman, in una conferenza
del 1956, auspicava una ricerca, che partendo dalla zoologia, sviluppasse
una scienza autonoma legata alle discipline biologiche: la fanerologia.
La luce assume un ruolo determinante nella esperienza della vita e della
specie nonché nella organizzazione del mondo e nella relazione con
l'ambiente. A partire dall'interpretazione di certi elementi del corpo
animale che alcuni trattati chiamano fanére (dal greco phaneros
= manifesto) nasce la nuova scienza. Questa manifestazione é letta
in ogni ambito sensoriale in base al riconoscimento ed alla organizzazione.
Per Portmann il manifestarsi é legato al termine linguistico in
tedesco Erscheiung (apparizione, fenomeno) per cui la fanerologia si proporrebbe
come una scienza che deve andare ben oltre le osservazioni di percezione
ottica, anzi deve coivolgere anche altri aspetti quali quelli spirituali
dell'Erleuchtung (illuminazione) che hanno la stessa radice linguistica.
Luce, organizzazione del mondo e linguaggio vanno di pari passo nella biologia
auspicata da Portmann, dove c'é concordanza tra struttura interna
e quella esterna cosi' come già evidenziato dalla fanerologia
influenzata dalle ricerche delle scienze etologiche. Egli afferma che «Lo
studio del singolare rapporto dei viventi con la luce pone alla biologia
nuovi interrogativi. Le ricerche sui diversi modi di produzione del colore
negli organismi riceveranno nuovi impulsi da queste premesse». E
più oltre egli auspica che la biologia «deve riconoscere e
adottare una concezione in cui il rapporto con il mondo determinato da
una misteriosa interiorità e l'autopresentazione di questa
stessa interiorità valgano come proprietà primarie
della vita, proprietà che, unitamente all'autoconservazione,
all'evoluzione individuale e alla trasformazione della specie, ne definiscono
la totalità ». Quanto detto comporta una nuova concezione
di organismo che implica una organizzazione biologica e linguistica in
relazione con se stesso e la specie, nonché con l'ambiente in cui
si sviluppa; per cui questo autore puo' poi affermare che «Le nostre
osservazioni riguardavano il rapporto dei viventi con la luce. Questa 'chiarità',
la luce, é in effetti il potente veicolo dei nostri rapporti con
il mondo e come tale é inserita nelle strutture fondamentali dell'umano.
Che la parola 'illuminazione' é più che una metafora poetica,
che l'illuminazione ha una parte rilevante nella formazione degli esseri
viventi: questo volevamo provare con la nostra incursione nel mondo degli
organismi. Mostrare nella pianta come nell'animale, i nessi tra illuminazione
e apparizione, anche questo puo' essere un contributo alla cognizione dell'essenza
umana». La prima citazione tra virgolette é a p. 72. La seconda
e la terza sono a pagina 73
[58] Si veda
a tal proposito l'articolo a firma di Salvatore Romagnolo uscito sull'inserto
Tutto scienze de La stampa del 28 luglio 1999 o si visiti il sito Internet
dell'Applied Chaos Laboratory:
http://65.54.246.250/cgi-bin/linkrd?_
lang=FR&lah=bc9cbf8b5486b644d7a9362696a756a0&lat=1065876601&hm___
action=http%3a%2f%2fwww%2ephysics%2egatech%2eedu%2fchaos%2f.
[59] Si veda
a tal proposito il testo di Carven Mead, Analog VLSI and Neural System,
Addison Wesley Pubblishing, 1989.
[60] Si veda
a tal proposito gli articoli, con la relativa bibliografia, apparsi sulla
rivista «Le Scienze», edizione italiana di Scientific American,
l'uno di Guido Romeo, Biochip: il DNA sulla punta di un dito, in «Le
scienze», n. 362, Milano, ottobre 1998, e di Marco Bove, Michele
Giugliano, Massimo Grattarola e Sergio Martinoia, Reti bioartificiali di
neuroni, in «Le scienze», n. 375, Milano, novembre 1999.
[61] Il termine
robotica é stato inventato da Isaac Asimov nel racconto Luciscultura
del 1939. Egli cosi' afferma nella introduzione: «I miei primi racconti
su qusto tema risalgono al 1939. A quell'epoca avevo diciannove anni e
già consideravo i robot come semplici frutti della tecnica,
dotati di meccanismi di sicurezza interni che avevo battezzato 'Le Tre
Leggi della Robotica'. E cosi' fui il primo a fare uso della parola robotica
in un testo scritto, per la precisione in un racconto che apparve nel numero
di Astounding Science Fiction del marzo 1942. Ma fino alla metà
degli anni Settanta, quando incominciarono a diffondersi i microchip, i
robot non furono realizzabili. Soltanto con l'avvento dei microprocessori,
i computer /pur mantenendo l'indispensabile capacità di calcolo
e versatilità / divennero abbastanza piccoli ed economici
da permettere di realizzare un robot con una spesa che non fosse proibitiva.
Oggi nell'industria si utilizzano macchine controllate da computer, e queste
macchine vengono chiamate robot. Sempre più frequentemente, ai robot
vengono affidati compiti semplici e ripetitivi nelle catene di montaggio
(saldare, trapanare, lucidare e cosi' via); essi rivestono un'importanza
sempre maggiore nell'economia mondiale. I robot oggi rappresentano un preciso
campo di studio e per dare un nome alla scienza che li riguarda é
stata usata proprio la parola che ho inventato io: robotica». I.
Asimov, Sogni di robot, Milano, Tea, p.7. Si veda come lo stesso autore
riporta in modo più articolato la nascita del robot e ne anticipa
gli attuali sviluppi, grazie anche alla sua inclinazione di divulgatore
scientifico, si veda il testo I. Asimov, Il libro della biologia, Milano,
Mondadori, specie pp. 384-9.
Il termine robot, invece, é dello
scrittore ceco Karel Capek (1890-1938). Egli, nel suo celebre dramma Robot,
del 1920, faceva agire le creature con funzioni «automatiche»,
come se fossero uomini artificiali, calando tuttavia in essi il senso umano
del lavoro (robota). Il robot, nell'intenzione dello scrittore, simula
le attività umane esteriori senza duplicare al tempo stesso
il comportamento interno. Il robot di Asimov é già
un «ente artificiale» a sé stante che ha una vita quasi
indistinguibile da quella umana; mentre per Capek il robot erano congegni
comportamentali che rientravano ancora nella sfera imprecisata tra l'uomo
e la categoria normale delle macchine. I meccanismi macchinici, in Capek,
va ricordato, erano ancora proprietÃà derivanti da una spersonalizzazione
di alcuni comportamenti umani; mentre in Asimov il robot viveva secondo
propri principi autonomi, anche se fissati / o trasferiti / attraverso
i modelli mentali stabiliti dal costruttore umano e mostrando il più
delle volte intelligenza superiore all'umano. Ecco come delle macchine
che possono compiere operazioni logiche e matematiche / o attraverso dei
sensori riconoscono le differenze esterne attivando dei dispositivi operativi
/ sono oggi realmente differenti dalla macchina a vapore, dalle presse
tipografiche o dai telai automatici.
[62] Cfr. per
l'eterofenomenologia specie D. C. Dennett, Coscienza, Milano, Rizzoli,
1993, o il mio intervento al convegno nazionale di Estetica, a Gargnano,
dal titolo «Estetica, physis, e organizzazione delle informazioni»,
dell'ottobre 1999, sta negli Atti del Convegno Nazionale dell4AISE 1999
dal titolo Le radici filosofiche dell'estetica, Torino, Edizioni Trauben,
2000, o il mio testo G. Siano, Estetica e cibernetica, Salerno, Palladio,
1994.
[63] M. Minsky,
La società della mente, Milano, Adelphi, 1989.
[64] Gregory
Bateson, Mente e natura, Adelphi, Milano, 1984.
[65] Penso
alle prime importanti ricerche di H. Maturana e F. Varela, Autopoiesis:
Reproduction, heredity and evolution, in M. Zeleny (a cura di), Autopoiesis,
dissipative structures and spontaneous social orders, Westview Press, Boulder,
Colo., 1980. In italiano sono stati tradotti gli ormai celebri: Autopoiesi
e cognizione, Venezia, Marsilio, 1985, e L'albero della conoscenza, Milano,
Feltrinelli, 1987. In questi testi, specie l'ultimo citato, i due autori
hanno rinunciato al concetto di «essere» per quello di «sistema
biologico vivente».
[66] Barilli
ha per primo evidenziato, in Italia, come la presenza dell'esperienza estetica
oggi vada intesa come esperienza sensoriale. La sua estetica prende le
mosse da McLuhan (dove le tecnologie sono estensioni del corpo) e dalla
convinzione che nel passato l'artista concentrava nei suoi prodotti una
certa cifra della propria sensorialità , mentre il resto era smarrito
a causa di censure morali o di impossibilità di registrazione.
Gli atteggiamenti culturali mutati e un maggiore dilagare della sensorialità
, grazie alla nuove tecniche attraverso cui si producono opere (fotografia,
video), hanno prodotto il dilatarsi delle esperienze estetiche fino allo
sciogliemento. Barilli cosi' definisce l'operatore estetico del futuro
«animatore della superficie estetica della comunità / massaggiatore
del sensorio comune». Coloro che producono arte come coloro che la
insegnano, assumono il ruolo di «funzionari pubblici delegati a maneggiare
il sensorio collettivo». Cfr. l'intervento di R. Barilli, sta in
U. Eco, G. Vattimo, Th. Maldonado, L. Ricci, G. Guglielmi, L. Veronesi,
G. Dorfles, R. Barilli, M. Perniola, Corso in nove lezioni all'Accademia
Clementina , Bologna, Cappelli, 1977.
[67] T. S.
Kuhn, La struttura delle rivoluzioni scientifiche, Torino, Einaudi, 1978.
[68] L. Munford,
Il mito della macchina, op. cit., pp.18-9.
[69] Sta in
L. Munford, Tecnica e Cultura, op. cit., pp.72-3.
[70] Philip
K. Dick, VALIS, sta in La trilogia di VALIS, Milano, Mondadori, 1993, p.
95.
[71] Ibidem,
p. 94.
[72] Cfr. R
Thomas, Kinetic Logic, Berlino, Springer Verlag, 1979.
[73] F. Folgelmann-Souilié,
Colloque sz Cerisy, Parigi, Ed. du Seuil, 1983.
[74] Questo
artista é un rappresentante della bioestetica (o biopoetica) di
cui Wilson e altri studiosi fin dagli anni Ottanta hanno tracciato, come
abbiamo visto nella relativa nota bibliografica, i rapporti tra scienze
e interpretazione delle arti. Di Eduardo Kac si veda «Genesis»
e «Transgenic Art», in Atti del Simposio LifeScience, a cura
di G. Stocker, C. SchÃmpf, New York, Springer Wien, 1999. (Un grazie
alla amica, dott.ssa Diana Danelli, che mi ha segnalato queste pubblicazioni).
L'arte genetica e transgenica é proposta
artficialmente da Kac attraverso videocamere applicate ad un microscopio
elettronico. Alcune delle molecole vengono estrapolate per notare come
si forma la varietà informativo-comunicazionale e come nasce
il contesto e la storia in embriologia. Cio' diventa chiaro se si segue
l'esperienza di Edelman quando indaga su come emerge un modello a partire
dalle prime attività delle cellule. Il riferimento palese
é alle CAM (cell adhesion molecules) che cementano funzioni e adesioni
e trasporti di organizzazioni e percorsi di informazioni molecolari nelle
cellule. Edelman ne individuo' allora tre, e molte altre furono poi scoperte
in seguito. Due si presentano molto presto durante lo sviluppo embrionale
e sono la L-CAM, che fu trovata per la prima volta nel fegato (liver),
e la N-CAM, chiamata cosi' perché fu trovata per la prima volta
in associazione col tessuto nervoso. Esse si organizzano e si dispongono
in gruppi neuronali e si dispongono in modo da modificare dei muri in pareti
con strutture e confini visibili, comunicanti, i cui confini hanno un interscambio
con cio' che si forma all'esterno, ma sempre in modo che non si alteri
la struttura organizzativa, proprio come potrebbe ad esempio accadere in
una facciata di un edificio con le finestre. «La struttura molecolare
delle CAM é determinata da geni particolari. E all'inizio dello
sviluppo dell'embrione, altri geni determinano quando debbano essere prodotte
le CAM. L'esatta quantità e 'adesività ' delle CAM
(che variano continuamente nel corso dello sviluppo dell'embrione dipendono
pero' dalla posizione presente e passata delle cellule che le trasportano,
e la posizione della singola cellula non é soggetta a un diretto
controlo genetico. La disposizione dei gruppi di cellule che sono connesse
assieme ad un tipo di CAM varierà percio' persino in individui
geneticamente identici. Questi gruppi di cellule inviano segnali che attivano
e disattivano geni delle CAM, oltre ad attivare e a disattivare l'azione
dei geni che specificano la specializzazione cellulare. L'intera sequenza
per mezzo della quale ha luogo la differenziazione é determinata
non direttamente da geni ma indirettamente dall'azione combinatoria di
geni e segnali da parte di gruppi di cellule che attivano geni, ed é
percio' chiamata epigenetica. Le cellule connesse in gruppi per mezzo di
L-CAM formano confini con altre cellule connese in altri gruppi per mezzo
di N-CAM. I confini sono una conseguenza del fatto che i due tipi di molecole
non aderiscono fra loro. Edelman e colleghi hanno mostrato che le cellule
da un lato del confine si trasformeranno successivamente in cellule più
specializzate di un tipo, e quelle dell'altro lato del confine diventeranno
cellule specializzate di un altro tipo. Nel corso dell'intero sviluppo
embrionale si formeranno di continuo confini fra cellule che sono connesse
fra loro da CAM diverse, e dopo la formazione dei confini le cellule svilupperanno
le loro specializzazioni. Man mano che le cellule continuano a differenziarsi,
si formano nuovi confini di CAM, prima che nuovi mutamenti siano introdotti
da segnali inviati da gruppi di cellule ai geni che attivano sia le CAM
sia i geni che specificano la specializzazione cellulare. A seconda della
storia passata dei due gruppi di cellule, i segnali scambiati al confine
fra gruppi di cellule N-CAM e di cellule L-CAM determineranno la successiva
formazione di tipi di cellule molto diversi a ciascun lato del confine.
La funzione del confine fra gruppi di cellule CAM diverse dipende quindi
dal contesto: dalle cellule circostanti e dalla storia passata delle cellule.
In generale, inoltre, le regole che governano la risposta delle CAM sono
simili sia per i neuroni del cervello sia per le altre strutture dell'organismo.
Poiché i confini dei gruppi di cellule dipendono dalla dinamica
dello sviluppo, ci saranno variazioni individuali non determinate solo
da geni e la cui diversità assicurerà il possesso
a cervelli diversi di strutture diverse. Eppure i modelli generali formatisi,
e le sequenze grosso modo simili dello sviluppo embrionale spiegheranno
perché i singoli cervelli dei membri di una specie siano simili
fra loro». Da Israel Rosenfield, L'invenzione della memoria, Milano,
Rizzoli, 1989, pp. 195-6.
E cio' che ci mostra Kac nella sua arte
biologica é questo continuo spostarsi dei confini e di organizzarsi
e scambiarsi segnali tra molecole in base al loro costituirsi in gruppo
cellulare. Questa dimostrazione della evoluzione della organizzazione delle
molecole palesa che ci sono ragioni proprio molecolari per cui due cervelli
non potrebbero essere mai identici, in quanto il cervello funziona come
un sistema dotato di selezione ed il meccanismo delle CAM pone una serie
di connessioni anatomiche del cervello di un individuo, il quale ha miliardi
di miliardi di miliardi di connessioni. In questo processo é importante
il contesto e la storia delle organizzazioni cellulari che determinano
la struttura e il funzionamento del cervello. Kac, attraverso microscopi
elettronici su cui vengono piazzate delle telecamere, ci palesa, pertanto,
che anche nel contesto di un artificio simulativo, le organizzazioni molecolari,
specie se relative alle funzioni cerebrali, si raggruppano in base al contesto,
alle inferenze, alla predisposizione e alla storia comportamentale. La
scelta architettonica della disposizione in strutture molecolari CAM per
i passaggi di informamazioni alle cellule é frutto della contestualità
e della organizzazione e «poiché sviluppo, struttura e funzione
sono correlati, non sarebbe sorprendente se si trovasse che le attività
funzionali di un gruppo di cellule cerebrali connese tra loro dipendono
sia dalle attività di gruppi cellulari contigui sia dalla
storia passata di quel particolare gruppo di cellule». Ibidem, p.
197.
[75] Cfr. G.
Siano, Arte e informazione cibernetica ovvero: dell'arte come «bene
culturale», relazione letta al convegno di Urbino nel settembre 1999,
in parte pubblicata negli Atti della ricerca di sociologia dell'arte sui
critici d'arte italiani, promossa dall'ESSAD, le cui conclusioni sono nel
volume (a cura di) Danila Bertasio e Giorgio Marchetti, Fra ombre ed autoritratti,
Milano, Franco Angeli, 2000, pp.372-81, la citazione é alle pp.
380-1.
[76] John Green,
La nuova frontiera delle comunicazioni, op. cit., p.21. é ormai
chiaro che qui si intende per digitale, non il dito ma il calcolo computazionale.
Infatti il termine inglese digit, ha un duplice significato: sia dito che
cifra.
[77] L'estetica
della comunicazione, grazie alle problematiche evidenziate in Italia da
Mario Costa, é da considerarsi come la prima ibridazione di un processo
comunicativo tra macchine e viventi che modifica (a) sia il sistema della
ricezione che quello della cognizione dei viventi; (b) studia prevalentemente
questo processo comunicativo nella trasformazione tecnologica del mondo
artistico; (c) trova le origini filosofiche del cambiamento e riflette
sui possibili (o impossibili o, anche, come penso, «modulari»)
«contenuti» o, meglio, «strutture» organizzative
dell'estetico, attraverso i dispositivi.
[78] La personetica,
la scienza che studia i personoidi, altrimenti detta teogonia sperimentale,
ha già fatto la sua apparizione. Il suo nome accomuna un termine
di derivazione latina ed uno greco: «persona» e «genetica»
(questo proprio nel suo significato di formazione o creazione). E' una
diramazione della cibernetica e della psiconia degli anni ottanta. Si rivolge
a costruire artificialmente gli «esseri» intelligenti. Un commento
a questa scienza sta nel capitolo La personetica in G. Siano, Estetica
e cibernetica, op. cit., pp. 83-96.
[79] Sta in
George Johson, La Mente e la macchina, Milano, IHT gruppo Editoriale Srl,
1990, p. 47.
[80] Cfr. il
romanzo di Bioj Casares, L'invenzione di Morel, Milano, 1979.
[81] Si veda
a tal proposito le nuove analisi estetico-filosofiche a partire dal letterario,
dalla 'fiction' figurativa della pittura vascolare, / fino alla ormai quasi
superate tecnologie della stampa della fotografia della macchina da scrivere
ecc. per l'avvento delle neo-tecnologie elettro-elettroniche, che fa Mario
Costa attraverso i dispositivi, specie in Mario Costa, L'Estetica dei media,
Avanguardie e tecnologia, Roma, Castelvecchi, 1999.
[82] Si veda
il mio già citato intervento a Urbino del settembre 1999 dal
titolo Arte e informazione cibernetica ovvero: dell'arte come «bene
culturale» .
[83] La prima
opera d'arte venduta in Europa, con codice criptato, e visitabile solo
con una passworld in Internet, é stata dell'artista tecnologico
Fred Forest, nel 1998.
[84] I biologi,
i fisici, i medici e gli scienziati cognitivisti delle nuove frontiere
studiano e definiscono l'uomo come una delle tante organizzazioni biologiche
viventi. Studiare la struttura vivente significa voler indagare sul percorso
cognitivo che si vuole individuare, sulle relazioni che vengono tracciate,
sui rapporti linguistici che vengono sottolineati nell'interscambio coevolutivo
con l'ambiente e sulla configurazione che viene presentata come stadio
esaustivo in un qui ed ora della evoluzione. Tutte queste informazioni
raccolte servono poi a definire una forma di sviluppo che connoti e fissi
la complessità della evoluzione di un sistema biologico vivente
colto in una tappa del suo aggiustamento strutturale, o dei suoi equilibri
o disequilibri con l'ambiente. Cfr. H. Maturana e F. Varela, L'albero della
conoscenza, Milano, Feltrinelli, 1987.
Questi studiosi si sono interessati dei
meccanismi e del funzionamento del rapporto corpo-mente-cervello e che
insieme con un medico neurofisiologo, A. R. Damasio, L'errore di Cartesio,
Milano, Adelphi, 1995, hanno prodotto alcune delle più originali
e avanzate ricerche su «come si sente»; a cio' vanno aggiunti
quei ricercatori che studiano le api o i pipistrelli o le organizzazioni
di vita degli animali in genere.
[85] Il sistema
dell'arte e dell(informazione dell'arte sta vivendo le sue trasformazioni
ma ben presto si trasformerà in modo radicale. Esso si adeguerà
al nuovo mercato, che esige nuove produzioni. Si pensi a quanto affermato
da Rawlins «mentre il futuro ci viene incontro a velocità
vertiginosa, la tecnologia puo' rendere possibili cambiamenti talmente
profondi da non avere connessioni visibili con il passato. Immaginate,
ad esempio, un mondo nel quale citare per danni un medico significa citare
per danni il programma diagnostico che quel medico ha usato. Immaginate
un mondo di instabilità finanziaria ancor più grande e cicli
di espansione e recessione ancor più brevi, nel quale strumenti
di regolazione nelle mani di governi, fatta per un'epoca più lenta
e tranquilla, non siano in alcun modo in grado di tener testa alla rapidità
della circolazione internazionale del danaro elettronico. Mentre leggete
queste righe, tutto il vostro danaro sta compiendo il giro del mondo all'inseguimento
del denaro di tutti gli altri, come del resto fa ventiquattr'ore su ventiquattro».
Greory J. E. Rawlins, Le seduzioni del computer, op. cit., p. 101.
[86] Cfr; a
tal proposito il testo di Jamese P. Harbison e Robert E. Nahory, Laser,
la luce estratta dagli atomi, Bologna, Zanichelli, 1999. E «sebbene
l'acronimo inglese 'laser' debba la sua iniziale alla parola 'light', 'luce',
i processi per creare un fascio amplificato attraverso l'emissione stimolata
di
radiazioni sono applicabili, in linea di principio, all'intero spettro
della radiazione elettromagnetica il primo esempio di effetto laser fu
osservato alla fine degli anni Cinquanta in un dispositivo a microonde,
il maser» (p. 177) da Charles Hard Towens, professore di fisica presso
la Columbia University di New York. Spermentalmente il laser é stato
usato ultimamente con succeso anche nella pulizia di opere d'arte. Da cio'
si deduce che il laser ha funzioni applicative non solo nel campo fisico
o ottico ma anche in quello chimico e, ovviamente, dell'informazione con
i CD.
[87] J. Wheeler,
Bits quanta, meaning, sta in A. Giovannini, M. Marinaro e A Rimini, (a
cura di) Problems in Theoretical Physics, Salerno, Università
di Salerno, 1984, p. 121.
[88] Si veda
di Douglas R. Hofstadter, Göedel, Erscher, Bach: un'Eterna
Ghirlanda Brillante, op. cit., pp. 365-422.
[89] J. Wheeler,
Bits quanta, meaning, op. cit., p. 121.
[90] Ibidem.
[91] Ibidem.
[92] E. Schrödinger,
What is the life?: Cambridge, Cambridge University Press, 1946, p. 77.Il
libro è stato ristampato insieme allâ€altra opera
famosa di Schrödinger, Mind and Matter, (1958) dalla medesima
casa editrice nel 1967, la traduzione italiana reca il titolo: Scienze
e umanesimo. Cos'é la vita? Sansoni, Firenze, 1970.
[93] P. Davies,
Dio e la nuova fisica, Milano, Mondadori, 1994, p. 97.
[94] Ibidem,
p. 98.
[95] Ibidem,
p. 91.
|